ÁP DỤNG CẤU TRÚC NHẬN THỨC CỦA BERNARD LONERGAN VÀO ĐẠO ĐỨC AI
07/04/2026
Vào một buổi chiều muộn tại Detroit, một người đàn ông tên Robert Williams đã bị bắt ngay trên bãi cỏ trước nhà, trước ánh mắt kinh hãi của gia đình. Anh bị áp giải đi và giam giữ gần ba mươi tiếng đồng hồ vì một vụ trộm mà ông hoàn toàn vô can – tất cả chỉ bởi một hệ thống nhận diện khuôn mặt bằng trí tuệ nhân tạo (AI) xác định anh là thủ phạm.[1] Vấn đề duy nhất là: AI đã sai. Hình ảnh giám sát mờ nhoè, và ngoài việc cả Robert lẫn nghi phạm thật sự đều là đàn ông Mỹ gốc Phi có vóc dáng tương đồng, họ hoàn toàn không hề giống nhau. “Làm sao có thể giải thích cho hai đứa con gái nhỏ rằng một chiếc máy tính đã sai, nhưng cảnh sát lại tin nó?” Robert cay đắng thổ lộ. Các con ông đã tận mắt chứng kiến người cha vô tội bị còng tay đưa đi chỉ vì sai sót của một cỗ máy – một sai lầm để lại vết thương bất công hằn sâu trong ký ức gia đình.
Câu chuyện có thật này phơi bày một cách rõ ràng những hệ lụy đạo đức khi áp dụng AI trong một số lĩnh vực. Khi các hệ thống AI âm thầm len lỏi vào đời sống thường nhật – từ các thuật toán sắp xếp bản tin ta đọc, đến quy trình tự động hóa trong tuyển dụng hay hỗ trợ giám sát an ninh – chúng mang lại hứa hẹn về hiệu quả và tri thức, nhưng đồng thời cũng tiềm ẩn nguy cơ của những hệ quả ngoài dự tính. Một vụ bắt oan sai, một quyết định tín dụng mang định kiến, hay một “bong bóng” thông tin bóp méo trên mạng xã hội đều có thể làm đảo lộn cuộc sống con người và bào mòn nền tảng niềm tin xã hội. Vậy chúng ta phải ứng phó thế nào trước những thách thức ấy? Làm thế nào để bảo đảm rằng các công nghệ đầy quyền lực này phụng sự công lý và thiện ích chung, thay vì làm suy tổn chúng? Rõ ràng, câu trả lời không chỉ nằm ở các giải pháp kỹ thuật; chúng ta cần đến sự khôn ngoan và phân định luân lý.
Trong hành trình tìm kiếm sự phân định này, một hướng dẫn bất ngờ xuất hiện: triết gia và thần học gia Dòng Tên thế kỷ XX, Bernard Lonergan. Ông được biết đến qua việc đề xuất năm “giới luật siêu nghiệm” như những thói quen căn cốt của trí tuệ và tâm hồn trên hành trình đi tìm kiếm chân lý và điều thiện: Hãy chú tâm, hãy sáng suốt, hãy hợp lý, hãy có trách nhiệm, và hãy yêu thương.[2] Thoạt đầu, Lonergan hình thành các nguyên tắc này nhằm mô tả cách con người đạt tới tri thức và đưa ra quyết định một cách đích thực, dựa trên điều ông gọi là “khát vọng vô hạn để biết” – một thôi thúc do Thiên Chúa ban, định hướng con người đến sự thật và giá trị. Dù Lonergan sống trước thời đại của AI, nhưng những suy tư của ông lại mở ra một la bàn thích hợp đáng kể cho việc ứng xử với những phức tạp đạo đức trong kỷ nguyên AI.[3] Mỗi giới luật trở thành một lăng kính qua đó chúng ta có thể xem xét tương tác của mình với AI: từ những gì ta quan sát, đến cách ta tư duy, phán đoán, hành động, và sau cùng là yêu thương trong một thế giới ngày càng được định hình bởi các thuật toán.
Những gì tiếp theo sẽ là một hành trình diễn giải năm giới luật này trong bối cảnh AI đương đại. Bằng việc chú tâm đến cách AI định hình trải nghiệm sống của mình; sáng suốt trong việc hiểu đúng khả năng và giới hạn của AI; hợp lý khi cân nhắc giữa những khả năng và hiểm nguy của nó; có trách nhiệm trong thiết kế và sử dụng; và biết yêu thương để bảo đảm rằng AI phụng sự phẩm giá con người, chúng ta có thể vạch ra một lộ trình vừa am hiểu về công nghệ vừa vững chắc về mặt luân lý. Và chính khi đó, chúng ta mới có thể đáp lại lời mời gọi khẩn thiết: dẫn dắt AI bằng sự khôn ngoan nhân loại, thay vì để AI dẫn dắt chúng ta mà thiếu suy xét.
Những giới luật của Lonergan trong thời đại AI
Năm giới luật của Lonergan có thể được xem như một tiến trình tiệm tiến cho sự phân định luân lý, giúp chúng ta tìm được điểm tựa giữa những tiến bộ dồn dập của trí tuệ nhân tạo.[4] Tiến trình ấy đi từ quan sát đến thấu hiểu, rồi phán đoán, hành động, và cuối cùng là định hướng sâu xa về điều thiện. Khi được dệt thành một mạch tự sự, các nguyên tắc này có khả năng biến đổi căn bản cách chúng ta tiếp cận những trải nghiệm thường nhật với các cỗ máy thông minh. Hãy cùng suy xét từng giới luật và ý nghĩa của chúng trong bối cảnh thời đại AI.
Hãy Chú tâm (Be Attentive)
Hãy lưu tâm đến những gì thực sự đang hiện diện ở đây. Giới luật khởi đầu này mời gọi chúng ta tỉnh thức trước kinh nghiệm sống, chủ động nhận biết thay vì để mình trôi dạt trong vô thức thụ động. Trong bối cảnh AI, chú tâm đồng nghĩa với việc nhận ra rằng cái nhìn của chúng ta về thế giới ngày càng được trung gian hóa bởi các thuật toán – thường theo những cách tinh vi đến mức ta hầu như không hay biết.
Hãy lấy một ví dụ tưởng chừng đơn giản: việc đọc tin tức. Nhiều người trong chúng ta vẫn tin rằng khi lướt qua các bản tin trên Facebook, Twitter hay Google News, ta đang tiếp cận một lát cắt toàn diện của thời cuộc. Nhưng trên thực tế, các thuật toán trí tuệ nhân tạo đã lặng lẽ đứng sau những gì ta xem, bằng cách chọn lọc các câu chuyện dựa vào những cú nhấp chuột trước đó, vị trí địa lý và hồ sơ cá nhân. Theo thời gian, quá trình cá nhân hóa này có thể bao bọc ta trong một cái kén vô hình của những nội dung cùng chiều, tạo nên một bong bóng lọc, củng cố những định kiến của ta. Như một nhà khoa học máy tính cảnh báo: “Nếu thuật toán chỉ hiển thị cho bạn những bản tin mà nó cho rằng bạn sẽ thích… có thể bạn không biết rằng còn có cả những quan điểm khác nữa”, và vì tất cả điều đó diễn ra “ở hậu trường” nên chúng ta hầu như chẳng nhận ra việc tiếp nhận thông tin của mình đang bị thu hẹp.[5] Khi thiếu đi sự chú tâm, con người có thể sống dưới sức chi phối của những thị hiếu do thuật toán kiến tạo, và lầm tưởng mảnh vụn cục bộ là toàn bộ chân lý.
Bởi vậy, chú tâm trong kỷ nguyên AI đòi hỏi nơi chúng ta một hình thái chánh niệm kỹ thuật số (digital mindfulness). Chúng ta phải tự vấn: Trợ lý thông minh của tôi đang không nói điều gì? Những tiếng nói nào bị loại khỏi bảng tin của tôi? Các hệ thống AI đang định hình nhận thức của tôi về thực tại như thế nào? Điều này có thể đồng nghĩa với việc nhận ra rằng sau khi xem một video trên YouTube, chuỗi gợi ý “Xem tiếp” (Up Next) bắt đầu cuốn ta vào một quỹ đạo ngày càng cực đoan hơn; hoặc nhận ra rằng con đường “nhanh nhất” của ứng dụng dẫn lối thực ra đang thu thập các dữ liệu thông tin của chúng ta. Điều đó cũng có nghĩa là phải chú tâm đến những thiên lệch trong đầu ra của AI – chẳng hạn khi một ứng dụng nhận diện hình ảnh thường xuyên không nhận ra gương mặt có màu da sẫm, hoặc khi một gợi ý tự động hoàn thành câu lại hàm chứa định kiến ngấm ngầm. Tóm lại, “Hãy Chú tâm” là lời kêu gọi chúng ta giữ cho mình luôn tỉnh thức trước những gì AI đang tác động quanh ta và vào chính ta. Chỉ trong sự sáng tỏ ấy, con người mới có thể hy vọng đáp lại một cách công minh.
Hãy Sáng suốt (Be Intelligent)
Bước tiếp theo là sự thấu hiểu. Hãy sáng suốt nghĩa là đào sâu vào câu hỏi tại sao và như thế nào – tìm kiếm trực giác, kiến tạo liên hệ, tích lũy tri thức. Lời mời gọi của Lonergan hướng chúng ta vượt qua những ấn tượng bề mặt để đặt ra những câu hỏi nền tảng hơn về các hệ thống AI: Chúng vận hành như thế nào? Giới hạn của chúng là gì? Chúng được kiến thiết dựa trên những giả định nào?
Trong thực tiễn, điều này có thể đòi hỏi việc nắm vững một số hiểu biết cơ bản về AI. Chẳng hạn, hầu hết các thuật toán AI đều học hỏi từ dữ liệu đã có trong lịch sử. Điều đó có nghĩa: nếu dữ liệu vốn đã khiếm khuyết hoặc mang định kiến, thì “trí tuệ” của AI cũng sẽ thừa hưởng chính những khiếm khuyết ấy. Một ví dụ điển hình đã xuất hiện cách đây vài năm, khi Amazon phát triển một công cụ AI thử nghiệm nhằm tinh giản quy trình tuyển dụng. Mục tiêu là để chương trình này rà soát hồ sơ xin việc và xác định những ứng viên tiềm năng nhất. Nhưng đến năm 2015, các kỹ sư phát hiện hệ thống này lại xếp hạng ứng viên rõ ràng là bất lợi cho phụ nữ.[6] Lý do? Thuật toán đã tự huấn luyện trên kho dữ liệu gồm mười năm hồ sơ tuyển dụng, phần lớn đến từ nam giới (phản ánh thực trạng ngành công nghệ vốn bị thống trị bởi nam giới). Kết quả, cỗ máy đã ngầm kết luận rằng giới tính nam là điều kiện tiên quyết để trở thành một kỹ sư giỏi. Nó bắt đầu hạ điểm những hồ sơ có nhắc đến từ “phụ nữ” (chẳng hạn “chủ nhiệm câu lạc bộ cờ vua nữ”) hoặc những hồ sơ xuất thân từ các trường nữ sinh. AI đã làm chính xác điều mà nó được dạy – tìm ra quy luật trong dữ liệu – nhưng nó thiếu năng lực để nhận biết rằng những quy luật ấy phản ánh định kiến quá khứ, chứ không phải giá trị tương lai. Khi nhận ra lỗ hổng này, Amazon đã sáng suốt loại bỏ công cụ tuyển dụng đó.
Câu chuyện cảnh tỉnh này cho thấy tại sao sáng suốt khi tiếp cận AI là điều không thể thiếu. Chúng ta phải nỗ lực hiểu rõ cả tiềm năng lẫn giới hạn của nó. Đúng là AI có thể phát hiện những mô hình trong khối dữ liệu khổng lồ vượt xa khả năng con người, mang lại những tri thức hữu ích – từ việc nhận diện dấu hiệu sớm của bệnh tật trong các hình ảnh y khoa cho đến dự đoán thảm họa thời tiết. Nhưng AI không phải là phép màu, cũng chẳng phải là hệ thống bất khả ngộ. Nó không thực sự “hiểu” ngữ cảnh hay ý nghĩa; nó chỉ phát hiện các mối tương quan, chứ không nắm bắt được nguyên nhân. Và nó sẽ trung thành khuếch đại bất cứ điều gì đã được khắc sâu trong dữ liệu huấn luyện của mình.
Trong lĩnh vực thực thi pháp luật, chẳng hạn, một số thành phố đã áp dụng các thuật toán dự báo tội phạm với kỳ vọng phân bổ lực lượng tuần tra hợp lý hơn dựa trên thống kê tội phạm. Trên thực tế, các công cụ này thường góp phần duy trì thiên kiến chủng tộc. Chúng liên tục điều cảnh sát tới những khu vực vốn đã bị giám sát quá mức, bởi dữ liệu lịch sử phản ánh hàng thập kỷ của sự thiên lệch trong việc giám sát các cộng đồng thiểu số.[7] Kết quả là một vòng luẩn quẩn: càng nhiều tuần tra thì càng nhiều sự kiện được ghi nhận, từ đó lại được dùng để biện minh cho việc gia tăng tuần tra, trong khi những người da màu phải gánh chịu sự bất công nặng nề.
Một cách tiếp cận sáng suốt sẽ nhận diện những cạm bẫy này. Nó đòi hỏi sự minh bạch về cách thức AI đưa ra quyết định, cũng như sự cảnh giác về chất lượng của dữ liệu mà nó học hỏi. Nó đồng thời buộc ta thừa nhận những giới hạn không thể vượt qua của AI: nó không thể lượng định giá trị, luân lý, hay tính độc đáo vô song của phận người. “Sáng suốt” ở đây không chỉ là nắm trong tay mọi kiến thức kỹ thuật, mà quan trọng hơn là nuôi dưỡng một sự hiểu biết khôn ngoan về khả năng và sự yếu kém của AI. Nói theo ngôn ngữ của Lonergan, đó là sự phân biệt giữa dữ liệu thô và minh triết đích thực. Và chính minh triết ấy là điều chúng ta cần để có thể sử dụng AI một cách khôn ngoan.
Hãy Hợp lý (Be Reasonable)
Tri thức tự thân chưa đủ; chúng ta phải biết phán đoán cách sử dụng nó. “Hãy hợp lý” nghĩa là vận dụng sự đánh giá phê phán và khả năng phán đoán vững vàng đối với những hiểu biết mà ta đã đạt được. Đó là tiến trình liên tục đặt ra những câu hỏi: Điều này có đúng không? Điều này có thiện lành không? rồi cân nhắc các lựa chọn dưới ánh sáng của chứng cứ và nguyên tắc đạo đức. Trong một thế giới thấm đẫm AI, hợp lý đòi hỏi chúng ta phải biết gạn lọc giữa những lời cường điệu và nỗi sợ xoay quanh công nghệ, để có thể thẩm định vai trò của AI với con mắt tỉnh táo và sự minh triết luân lý.
Một khía cạnh của tính hợp lý là khả năng cân nhắc về những đánh đổi khi dùng AI và những hệ lụy của nó. Chỉ vì chúng ta có thể làm một điều gì đó bằng AI không có nghĩa là chúng ta nên làm. Chẳng hạn, các bộ lọc nội dung do AI điều khiển trên mạng xã hội có thể ngăn chặn tuyên truyền cực đoan và diễn ngôn thù hận – nhưng đồng thời cũng có nguy cơ vô tình kiểm duyệt những thảo luận chính đáng hoặc các biểu đạt nghệ thuật. Liệu sự đánh đổi ấy có đáng chấp nhận? Tương tự, việc trang bị AI cho máy bay không người lái hoặc vũ khí tự động có thể giúp bảo vệ sinh mạng binh sĩ, nhưng đâu là nguy cơ sai sót, và đâu là giá trị đạo đức khi chúng ta trao quyền sinh sát cho một cỗ máy? Hoặc hình dung một chiếc xe tự lái gặp tình huống tai nạn bất khả tránh: nó có nên lách để cứu người đi bộ, nếu điều đó đồng nghĩa với hy sinh tính mạng hành khách? Không một thuật toán nào có thể cung cấp lời giải giản đơn cho những nan đề đạo đức như vậy; chúng thúc đẩy chúng ta phải làm sáng tỏ hệ thống giá trị và thứ tự ưu tiên của con người. Một cách tiếp cận hợp lý sẽ không phó mặc những câu hỏi này cho riêng giới kỹ sư; nó đòi hỏi các nhà đạo đức học, triết gia và cộng đồng cùng có tiếng nói khi cân đo đong đếm lợi ích và tổn hại.
Hợp lý còn có nghĩa là phê phán những mô tả thái quá thường đi kèm với công nghệ mới. Một trong số đó là huyền thoại của thuyết tất định công nghệ – quan niệm cho rằng sự tiến triển của AI là điều tất yếu và gần như vượt khỏi tầm kiểm soát của chúng ta. Cách nhìn này, đôi khi được các nhà tiên phong công nghệ cao cổ vũ (dù mặc nhiên hay minh nhiên), có thể ru ngủ xã hội vào trạng thái thụ động chấp nhận bất cứ điều gì Thung lũng Silicon mang đến.[8] Nếu “cuộc cách mạng AI” là không thể ngăn cản, thì sao lại phải bận tâm đặt vấn đề? Nhưng khung tư duy của Lonergan mời gọi chúng ta bác bỏ chủ trương định mệnh ấy.
Máy móc không tự mình tiến hóa; chúng do con người thiết kế, huấn luyện và triển khai. Tương lai của AI sẽ được định hình bởi lựa chọn và giá trị của con người, dù chúng ta có nhận thức điều đó hay không. Lý trí đòi hỏi chúng ta phải giành lại quyền tự quyết của mình. Ta cần thẩm tra các tuyên bố táo bạo (ví dụ, rằng AI sẽ sớm vượt qua trí tuệ con người trên mọi lĩnh vực), và phân biệt giữa tiến bộ thực tế với tưởng tượng khoa học viễn tưởng hoặc chiêu thức tiếp thị. Ta cũng phải luôn ghi nhớ giới hạn nội tại của AI: cho dù tinh vi đến đâu, AI vẫn thiếu vắng tự ý thức, sự đồng cảm, và khát vọng bẩm sinh hướng tới chân lý và thiện hảo mà con người sở hữu.[9]
Nói cách khác, cho dù trông có vẻ “thông minh” đến đâu, AI không phải là một tác nhân đạo đức. Hợp lý giúp chúng ta không gán cho AI mức độ khôn ngoan hay quyền uy mà nó không xứng đáng có. Nó giữ chúng ta bám chặt vào chân lý nền tảng rằng chính con người mới phải chịu trách nhiệm về những công cụ mình tạo ra. Tư thế phê phán và khát vọng truy cầu chân lý ấy là điều kiện tối quan trọng để chúng ta định hướng công nghệ theo hướng tiến bộ đích thực, thay vì bị cuốn đi trong sự hứng khởi thiếu suy xét.
Hãy Có Trách nhiệm (Be Responsible)
Với sự hiểu biết được lý trí soi sáng, giới luật thứ tư của Lonergan kêu gọi chúng ta hãy có trách nhiệm – hành động phù hợp với sự phán đoán tốt nhất của mình về điều đúng đắn. Trong bối cảnh này, trách nhiệm áp dụng cho cả hai đối tượng: những người thiết kế và triển khai hệ thống AI, và tất cả chúng ta – những người sử dụng hay chịu tác động từ chúng. Đó là sự nhắc nhở rằng đạo đức rốt cuộc không chỉ là những nguyên tắc trừu tượng, mà còn liên quan đến những quyết định và hành động cụ thể.
Đối với các nhà thiết kế và phát triển AI, có trách nhiệm nghĩa là chủ động kiến tạo các hệ thống phù hợp với những giá trị đạo đức và phục vụ cho công ích. Điều này có thể bao gồm việc tuân thủ những chuẩn mực đang hình thành về “AI có đạo đức”: kiểm toán thuật toán để phát hiện thiên lệch, bảo đảm minh bạch trong quá trình ra quyết định, và đưa nhiều tiếng nói đa dạng tham gia vào quá trình phát triển. Nó cũng có nghĩa là phải biết kháng cự trước áp lực thương mại nhằm tung sản phẩm ra thị trường khi chưa được kiểm định an toàn đầy đủ. Chẳng hạn, nếu một công ty công nghệ đang phát triển phần mềm nhận diện khuôn mặt, cách tiếp cận có trách nhiệm có thể bao gồm việc đặt ra chuẩn mực nghiêm ngặt về độ chính xác trên các nhóm nhân khẩu khác nhau trước khi đưa vào sử dụng, thậm chí cân nhắc không bán sản phẩm cho những người dùng cuối nào đó (như các cơ quan chính phủ có thành tích nhân quyền yếu kém). Điều then chốt là các nhà phát triển phải thừa nhận trách nhiệm của mình đối với những tác động xã hội từ sản phẩm mà họ tạo ra.[10] Họ không thể đơn giản nói rằng “thuật toán đã quyết định”, như thể câu đó miễn trừ trách nhiệm cho họ – bởi lẽ chính lập trình viên là người viết thuật toán, và dữ liệu mà nó học phản ánh lịch sử con người. Do đó, trách nhiệm phải được “cài đặt trong thiết kế” ngay từ đầu.
Đối với người dùng thường ngày và công dân, có trách nhiệm với AI nghĩa là chủ động kiểm soát cách chúng ta để những công nghệ này bước vào đời sống mình. Trách nhiệm không phải là tiêu thụ thụ động, mà là sự dấn thân chủ động.[11] Ở cấp độ thực tiễn, điều này có thể được thể hiện qua những hành động và lựa chọn đơn giản, nhưng khi cộng gộp lại, chúng định hướng việc sử dụng AI theo một con đường tốt đẹp hơn. Ví dụ:
– Đặt ranh giới cá nhân với AI: hạn chế phụ thuộc vào các tiện ích AI có thể gây nghiện hoặc xâm nhập đời sống riêng tư. Một người dùng có trách nhiệm có thể quyết định tắt chế độ phát tự động do thuật toán gợi ý trên nền tảng video để tránh cuốn vào cuộn xem vô tận, hoặc dành ra những “Ngày nghỉ kỹ thuật số” (digital Sabbaths) nhằm giữ quyền kiểm soát sự chú ý của bản thân, thay vì để thuật toán thao túng không ngừng.
– Đòi hỏi minh bạch và công bằng: ủng hộ những công ty và sản phẩm minh bạch trong thực hành AI, đồng thời coi trọng quyền riêng tư và đạo đức dữ liệu. Điều này có thể đồng nghĩa với việc lựa chọn công cụ tìm kiếm không theo dõi mọi bước đi của bạn, hoặc từ chối sử dụng một ứng dụng đòi hỏi quyền truy cập xâm phạm mà không có lý do chính đáng.
– Vận động và giáo dục: trách nhiệm còn mở rộng đến bình diện công cộng – tham gia các cuộc đối thoại và tranh luận chính sách về AI. Ta có thể ủng hộ việc ban hành các đạo luật cấm những ứng dụng rõ ràng gây hại (ví dụ, cấm dùng AI thiên lệch trong tuyển dụng hoặc trong hoạt động cảnh sát) và hỗ trợ các sáng kiến thiết lập cơ chế giám sát chặt chẽ đối với việc triển khai AI.[12]
Bên cạnh đó, việc tự trang bị kiến thức và chia sẻ cho người khác (trong gia đình, cộng đồng tôn giáo, hay các tổ chức xã hội) về cả lợi ích lẫn rủi ro của AI cũng là một cách có trách nhiệm để xây dựng một xã hội hiểu biết hơn.
Mỗi hành động này phản ánh nhận thức quan trọng rằng chúng ta không phải là những khán giả bất lực trong cuộc cách mạng AI. Trái lại, chúng ta là những người quản lý các công cụ quyền năng này. Xét dưới góc nhìn thần học, có trách nhiệm với công nghệ là một phần trong ơn gọi của chúng ta – ơn gọi trở thành những người quản lý tốt của công trình tạo dựng, nay được mở rộng sang cả những sáng tạo kỹ thuật số do trí tuệ con người hình thành. Cũng như chúng ta chịu trách nhiệm về cách đối xử với môi trường và tha nhân, chúng ta cũng mang trách nhiệm với cách mình “đối xử” với AI (và cách AI đối xử với người khác). Và chính điều này dẫn ta đến giới luật cuối cùng và cao cả nhất trong tư tưởng của Lonergan, là giới luật mang lại ý nghĩa sâu xa nhất cho tất cả những giới luật trước.
Hãy Yêu thương (Be Loving)
Lonergan thường mô tả giới luật thứ năm bằng cụm từ “Hãy ở trong tình yêu” (Be in love), qua đó ông muốn nói đến một định hướng vô điều kiện hướng về giá trị, về thiện hảo, và sau cùng là hướng về Thiên Chúa.[13] Yêu thương có nghĩa là đặt đức ái làm trung tâm cho mọi nhận thức và hành động của chúng ta. Không phải ngẫu nhiên mà hai điều răn cao cả nhất trong Kitô giáo chính là yêu mến Thiên Chúa và yêu thương tha nhân. Bất kỳ nền luân lý nào dừng lại ở trách nhiệm mà không vươn lên đến tình yêu thì sẽ vẫn lạnh lẽo và chưa trọn vẹn. Chính tình yêu mới hoàn thiện và tôn vinh đời sống đạo đức, hướng nó về sự hiến dâng bản thân và vì lợi ích chân chính của tha nhân.
Vậy mang tình yêu vào trong mối tương quan của chúng ta với AI nghĩa là gì? Trước hết và trên hết, điều ấy có nghĩa là giữ gìn phẩm giá con người và công ích như kim chỉ nam của chúng ta. Hãy Yêu thương nhắc nhở chúng ta rằng mọi quyết định kỹ thuật rốt cuộc cũng là quyết định liên quan đến con người – về cách chúng ta tôn vinh hay xúc phạm đến hình ảnh Thiên Chúa nơi tha nhân. Nếu một ứng dụng AI, dẫu ấn tượng đến đâu, lại làm giảm phẩm giá con người hoặc phá vỡ mối dây liên kết nhân loại, thì tình yêu buộc ta phải đặt vấn đề, thậm chí là khước từ nó. Ngược lại, nếu một công nghệ có thể được tận dụng để nâng đỡ con người, để chữa lành, để bao gồm, để trao quyền cho những người bị gạt ra bên lề, thì tình yêu thúc giục chúng ta theo đuổi và ủng hộ nó.
Ở cấp độ cá nhân, sống yêu thương trong thời đại kỹ thuật số có thể đồng nghĩa với việc đưa ra những chọn lựa có ý thức về vai trò của công nghệ trong các mối quan hệ của mình. Chẳng hạn, sử dụng AI theo cách bồi đắp cộng đồng thay vì dẫn đến cô lập. Điều này có thể đơn giản như việc dùng ứng dụng nhắn tin để giữ liên lạc với gia đình xa quê (thay vì mải mê cuộn xem vô tận một mình), hoặc phức tạp hơn như việc thiết kế những chương trình mục vụ nhà thờ ứng dụng phân tích dữ liệu để phục vụ người nghèo hữu hiệu hơn. Nó cũng bao hàm cả việc cảnh giác trước những cách mà AI có thể bào mòn các mối dây xã hội của chúng ta. Thuật toán mạng xã hội thường ưu tiên những nội dung khơi gợi phản ứng mạnh, có thể gieo rắc chia rẽ. Một cách tiếp cận xuất phát từ tình yêu sẽ tìm cách khắc phục điều đó – chẳng hạn, thay vì công kích nhau trên một chủ đề Facebook, ta chủ động tìm gặp và đối thoại trực tiếp với người bất đồng quan điểm. Nói cách khác, chính tình yêu phải định hình cách ta sử dụng công nghệ, chứ không để công nghệ định hình cách ta yêu. Như một văn kiện gần đây của Tòa Thánh đã ghi nhận, nếu AI được sử dụng để giúp con người xây dựng những kết nối đích thực, thì nó có thể góp phần tích cực vào sự triển nở của nhân vị. Nhưng điều đó đòi hỏi một chọn lựa có ý thức: đặt thiện ích của con người lên hàng đầu.
Ở cấp độ đạo đức rộng lớn hơn, Hãy Yêu thương được chuyển thành cam kết rằng AI rốt cuộc phải phục vụ cho những gì thực sự tốt đẹp cho nhân loại. Đức giáo hoàng Phanxicô đã nhiều lần nhấn mạnh điều này, kêu gọi rằng các công nghệ mới cần được sử dụng theo những cách thúc đẩy phẩm giá con người và công ích.[14] Tình yêu được thể hiện qua hành động nghĩa là chúng ta đo lường thành công của AI không chỉ bằng lợi nhuận hay hiệu quả, mà còn bằng tác động của nó đối với những người dễ bị tổn thương nhất. Một thuật toán ngân hàng có đối xử công bằng với người nghèo hay không? Một hệ thống gợi ý nội dung có bảo vệ trẻ em khỏi tổn hại hay không? Những tiện ích do AI mang lại có đi đôi với việc chăm lo cho những ai có thể mất việc vì tự động hóa hay không?
Lăng kính tình yêu giúp chúng ta luôn nhìn thấy con người đằng sau những dữ liệu thống kê. Nó khẳng định rằng con người là cứu cánh, không phải phương tiện, và công nghệ phải là công cụ để yêu thương chứ không phải cái cớ để né tránh việc yêu thương. Nói theo ngôn ngữ Kitô giáo, nếu chúng ta sáng tạo nên những hệ thống AI trợ giúp “những kẻ bé mọn nhất” (Mt 25,40) – chẳng hạn các AI chẩn đoán bệnh cho những bệnh viện thiếu thốn, hoặc ứng dụng dịch thuật dành cho người tị nạn – thì chúng ta đang đi đúng con đường của tình yêu. Ngược lại, nếu chúng ta để công nghệ hạ thấp hay khai thác con người, thì tức là chúng ta đã đánh mất cốt lõi chính nhân tính của mình.
Những Suy tư mang tính Thực tiễn và Thần học
Làm thế nào để những nguyên tắc này bén rễ trong đời sống cộng đoàn của chúng ta – đặc biệt là các cộng đoàn đức tin? Nhiệm vụ định hướng AI theo đường lối đạo đức là quá lớn đối với bất kỳ một nhóm nào; nó đòi hỏi điều mà Đức giáo hoàng Phanxicô gọi là một cuộc đối thoại rộng mở giữa người tin và người không tin, xoay quanh những vấn đề luân lý căn bản mà công nghệ đặt ra.[15] Giáo hội, với hai ngàn năm khôn ngoan về bản tính con người, về tội lỗi và ân sủng, có một vai trò then chốt trong sự phân định văn hóa này. Tuy nhiên, Giáo hội cần thực hiện vai trò ấy với sự khiêm tốn và tinh thần hợp tác, vừa học hỏi về công nghệ, vừa đem đến những đóng góp thần học và luân lý để soi sáng tiến trình.
Trước hết, các cộng đoàn đức tin có thể làm gương trong việc phân định cách sử dụng AI. Cũng như các Giáo hội đã từng học cách phê phán và định hướng việc sử dụng các phương tiện truyền thông như truyền hình hay internet, thì nay AI cũng cần được tiếp cận với thái độ tương tự. Chẳng hạn, một giáo xứ có thể tổ chức hội thảo về “Đời sống Kitô hữu trong thời đại kỹ thuật số”, giúp giáo dân suy tư về việc sử dụng điện thoại thông minh, các thuật toán mạng xã hội, hoặc trợ lý AI dưới ánh sáng của đức tin. Các mục tử và nhà lãnh đạo mục vụ có thể khuyến khích những thực hành tỉnh thức, như đề nghị một “xét mình công nghệ” vào cuối ngày, trong đó mỗi người cầu nguyện và xét lại cách họ đã dùng công cụ kỹ thuật số hôm ấy: liệu nó đưa họ đến gần Thiên Chúa và tha nhân hơn, hay đẩy họ ra xa. Những suy tư như thế đặt hành vi chú tâm, thông minh, hợp lý… vào trong một khung cảnh thiêng liêng. Đồng thời, chúng cũng gửi đi một thông điệp quan trọng: đặt nghi vấn về công nghệ không phải là phản tiến bộ, mà chính là hành động khôn ngoan.
Thứ đến, Giáo hội có thể góp phần định hình nền đạo đức công và chính sách về AI. Truyền thống học thuyết xã hội Công giáo cung cấp một khung tư tưởng phong phú (các nguyên tắc như công ích, bổ trợ, phẩm giá con người, ưu tiên chọn lựa cho người nghèo) có thể soi sáng hữu ích cho đạo đức công nghệ. Lấy nguyên tắc công ích làm ví dụ: nó kêu gọi chúng ta cân nhắc lợi ích của tất cả mọi người, đặc biệt là những người dễ bị tổn thương, trong mọi quyết định xã hội. Khi áp dụng vào AI, nguyên tắc này có thể dẫn đến việc vận động cho các quy định bảo vệ cộng đồng khỏi những quyết định gây hại do AI, hoặc thúc đẩy quyền tiếp cận công bằng đến những ứng dụng AI hữu ích (chẳng hạn ứng dụng AI trong y tế để phục vụ vùng nghèo, chứ không chỉ người giàu có).
Trong những năm gần đây, chính Tòa Thánh đã tham gia vào cuộc thảo luận này – đồng bảo trợ Rome Call for AI Ethics và tổ chức các cuộc gặp gỡ chuyên gia như Minerva Dialogues, nơi các nhà công nghệ và thần học gia cùng nhau thảo luận về tác động xã hội của AI.[16] Những cuộc đối thoại liên ngành như thế có ý nghĩa sống còn: chúng phá vỡ sự chia cắt thường thấy giữa giới kỹ sư công nghệ và giới học giả nhân văn. Thật đáng hy vọng khi thấy các nhà khoa học máy tính, triết gia, và giám mục cùng ngồi chung bàn, vật lộn với những vấn đề của học máy và trách nhiệm luân lý. Càng khuyến khích những cuộc đối thoại này – dù ở hội nghị học thuật, tại các buổi điều trần chính phủ, hay trong những cuộc gặp gỡ đại kết – chúng ta càng xây dựng được một nhận thức chung để dẫn dắt AI đến những mục đích tích cực.
Dưới lăng kính thần học, ta có thể nhìn sự xuất hiện của AI như một biểu hiện của sự đồng sáng tạo của con người dưới quyền Thiên Chúa. Năng lực phát minh ra các thuật toán phức tạp và những cỗ máy thông minh chính là sự phản ánh khả năng sáng tạo mà Thiên Chúa đã phú ban cho nhân loại. Trong sách Sáng Thế, con người được trao nhiệm vụ “cày xới và giữ gìn” khu vườn tạo dựng (St 2,15); đồng thời cũng được kêu gọi “tham dự một cách có trách nhiệm vào công trình sáng tạo của Thiên Chúa” trong thế giới.[17] Phát triển công nghệ là một cách chúng ta thực thi ơn gọi ấy. Nhưng bất kỳ việc thực thi nào như vậy cũng kèm theo trách nhiệm luân lý. Cũng như việc sử dụng tính sáng tạo của chúng ta để xây một cây cầu hay một bước đột phá y học đều kéo theo hệ lụy đạo đức, thì việc sáng tạo AI cũng vậy.
Giáo hội có thể nhắc nhớ chúng ta rằng công nghệ không hề trung lập về mặt đạo đức – nó mang trong mình các giá trị của những người sáng tạo và sử dụng nó. Do đó, xây dựng AI không chỉ là một nhiệm vụ kỹ thuật, mà còn là một nhiệm vụ đạo đức. Đặt AI trong khuôn khổ này có thể truyền cảm hứng cho các Kitô hữu để họ nhìn công việc của mình như một hình thức phục vụ hoặc kể cả một cách sống đời môn đệ: họ đang viết code để phục vụ Đức Kitô qua việc phục vụ tha nhân. Giáo hội cũng nhắc nhở tất cả chúng ta rằng lòng trung thành tối hậu của mình không thể nằm nơi công nghệ hay tiến bộ vì chính nó, mà nơi Thiên Chúa, Đấng trao ban cho chúng ta những hồng ân này để mưu ích cho tha nhân.
Sau cùng, một bước đi thiết thực là giáo dục và đối thoại ở cấp cơ sở. Các giáo xứ, đại học, và hội nhóm Kitô hữu có thể khuyến khích các nhóm học tập cùng nhau đọc và trao đổi về đạo đức AI, để cuộc trò chuyện không chỉ giới hạn trong giới chuyên gia. Những sáng kiến như vậy giúp giải mã AI cho người bình thường, phá tan cả sự ngây thơ lạc quan lẫn nỗi sợ hãi quá mức. Đồng thời, chúng cũng trang bị cho tín hữu khả năng lên tiếng nơi không gian công cộng, vận động cho một tương lai AI phản ánh các giá trị của chúng ta. Hãy tưởng tượng những ủy ban trong giáo xứ, giống như các nhóm công lý xã hội hay nhóm chăm sóc thụ tạo, nhưng chuyên tập trung vào đạo đức công nghệ – giúp cộng đồng luôn được thông tin và tham gia vào những vấn đề như quyền riêng tư dữ liệu hay “deepfake” (giả mạo hình ảnh và giọng nói). Những nhóm này có thể hợp tác với các công ty công nghệ địa phương hoặc nhà hoạch định chính sách để đóng góp ý kiến và định hướng dựa trên nguyên tắc luân lý. Khi các thần học gia, nhà đạo đức, kỹ sư và người dùng cùng nhau thiện chí đối thoại, chúng ta có nhiều cơ hội hơn để xây dựng những hệ thống và chính sách AI biết nâng đỡ thay vì gây tổn hại.
Kết luận
Sự trỗi dậy nhanh chóng của AI đặt trước mắt chúng ta những chọn lựa có khả năng định hình linh hồn của xã hội. Liệu chúng ta sẽ buông trôi, để cho tự động hóa và thuật toán áp đặt những điều kiện của đời sống con người? Hay chúng ta sẽ tiếp cận các công cụ ấy với tinh thần phân định và chủ ý, bảo đảm rằng chúng thực sự góp phần vào sự hưng thịnh của nhân loại? Năm nguyên tắc siêu nghiệm của Bernard Lonergan –Hãy Chú tâm, Hãy Sáng suốt, Hãy Hợp lý, Hãy Có Trách nhiệm, Hãy Yêu thương – cung cấp một khuôn khổ vượt thời gian cho chính loại phân định này. Chúng nhắc nhở ta rằng, cho dù công nghệ có mới mẻ đến đâu, thì tiến trình căn bản để phán đoán đúng đắn và hành động luân lý vẫn không hề thay đổi. Chúng ta phải mở mắt nhìn thẳng vào thực tại, tìm kiếm sự thấu hiểu, phán xét khôn ngoan, hành động đạo đức, và đặt tất cả trong tình yêu.
Đối với những người có đức tin, và thực ra là mọi người thiện chí, lời mời gọi là đem những thói quen của tâm trí và tâm hồn ấy áp dụng vào lĩnh vực AI. Điều này có nghĩa là nuôi dưỡng một nền văn hóa phân định về AI trong đời sống cá nhân, trong cộng đồng, và trong các định chế xã hội. Nó có nghĩa là từ chối để mình bị choáng ngợp bởi những hứa hẹn hào nhoáng của công nghệ, đồng thời cũng không sa vào việc coi nó như ma quỷ; thay vào đó, chọn con đường khó khăn hơn – con đường dấn thân có định hướng. Nó có nghĩa là khẳng định rằng con người vẫn là người dẫn dắt, vạch ra lộ trình tiến bộ công nghệ với đôi tay vững vàng đặt trên chiếc la bàn luân lý.
Có nhiều lý do để hy vọng. Trên khắp thế giới, các nhà đạo đức học, kỹ sư và nhà lãnh đạo tôn giáo ngày càng liên kết với nhau để bảo đảm rằng AI được phát triển một cách có trách nhiệm. Các chính phủ đang bắt đầu soạn thảo luật về sự công bằng và minh bạch của thuật toán. Các công ty công nghệ, dưới sức ép của công luận, nói về đạo đức nhiều hơn bao giờ hết. Các đại học Công giáo đang xây dựng những chương trình về sinh thái truyền thông của Giáo hội. Và vô số cá nhân đang học cách sử dụng điện thoại thông minh và trợ lý AI với sự tỉnh thức cao hơn. Tất cả những dấu hiệu này cho thấy chúng ta hoàn toàn có khả năng định hình tương lai của AI, thay vì thụ động chịu đựng nó.
Là Kitô hữu, chúng ta tiến bước vào tương lai với niềm hy vọng, không chỉ bởi nỗ lực của con người, nhưng bởi chúng ta tin tưởng nơi Thiên Chúa, Đấng dẫn dắt dòng chảy lịch sử. Nếu chúng ta mang những gì tinh túy nhất của truyền thống mình – sự khôn ngoan, chú tâm vào phẩm giá từng con người, và giới luật yêu thương – vào cuộc đối thoại về AI, thì chúng ta đang hành động như muối và ánh sáng giữa thế giới kỹ thuật số. Những thách đố đạo đức mà AI đặt ra, sau cùng, chỉ là những phản ánh mới của những vấn nạn xưa cũ về quyền lực, kiêu căng, công lý, và bác ái. Công cụ thì mới, nhưng bi kịch nhân sinh thì không. Ở mọi thời đại, Giáo hội đều được mời gọi phân định các dấu chỉ thời đại; và hôm nay, một trong những dấu chỉ ấy tỏa sáng qua những mạch điện và dòng mã. Khi thực hành lời khuyên của Lonergan – hãy chú tâm, hãy thông minh, hãy hợp lý, hãy có trách nhiệm, hãy yêu thương – chúng ta có thể bảo đảm rằng, ngay cả khi đổi mới, ta không đánh mất nhân tính và linh hồn của mình.
Thước đo sau cùng của thành công sẽ không phải là việc các cỗ máy trở nên thông minh đến mức nào, mà là việc chúng ta biết khôn ngoan và yêu thương đến đâu trong việc khai thác trí thông minh ấy cho lợi ích của mọi người. Như một bản phân tích từng nhấn mạnh, chúng ta phải “khẳng định tính ưu việt của con người” trong việc phát triển và sử dụng công nghệ, hướng tới một thế giới nơi công nghệ thực sự phục vụ nhân loại, chứ không phải ngược lại.[18] Với trái tim bén rễ trong tình yêu và tâm trí được dẫn dắt bởi chân lý, chúng ta có thể đón nhận những công cụ của AI mà không đánh mất điều làm nên phẩm giá đích thực của con người. Đó chính là niềm hy vọng và cũng là thách thức đặt ra cho chúng ta hôm nay – và với ân sủng Thiên Chúa, đó là một thách thức mà chúng ta có thể vượt qua, vì công ích của toàn thể nhân loại.
Nt. Anna Ngọc Diệp, Dòng Đa Minh Thánh Tâm
Chuyển ngữ từ: churchlifejournal.nd.edu
Trích Bản tin Hiệp Thông / HĐGMVN, Số 150 (tháng 11 & 12 năm 2025)
___________
[1] Victoria Burton-Harris and Philip Mayor, “Wrongfully Arrested Because Face Recognition Can’t Tell Black People Apart,” ACLU, ngày 24/ 6/ 2020.
[2] Lonergan, Bernard J. F. Method in Theology. Collected Works of Bernard Lonergan, (CWL 14), do Robert M. Doran và John D. Dadosky biên tập, Toronto: University of Toronto Press, 2017, trang 22-23.
[3] Steven Umbrello, “Navigating AI with Lonergan’s Transcendental Precepts”, Evangelization & Culture Online, ngày 25/4/ 2024.
[4] Ibd.
[5] Casey Moffitt and Linsey Maughan, “Bias in the Bubble: New Research Shows News Filter Algorithms Reinforce Political Biases,” Illinois Tech, ngày 1/11/2021.
[6] Jeffrey Dastin, “Insight: Amazon Scraps Secret AI Recruiting Tool That Showed Bias Against Women”, Reuters, ngày 11/10/2018.
[7] NAACP, Artificial Intelligence in Predictive Policing Issue Brief, không đề ngày.
[8] Steven Umbrello, “Navigating AI with Lonergan’s Transcendental Precepts”, sđd.
[9] Ibd.
[10] Ibd.
[11] Ibd.
[12] NAACP, Artificial Intelligence in Predictive Policing Issue Brief, trích dẫn.
[13] Steven Umbrello, “Navigating AI with Lonergan’s Transcendental Precepts”, sdđ .
[14] Deborah Castellano Lubov, “Pope Francis Urges Ethical Use of Artificial Intelligence”, Vatican News, ngày 27/ 3/ 2023.
[15] Ibd.
[16] Ibd.
[17] Ibd.
[18] Steven Umbrello, “Navigating AI with Lonergan’s Transcendental Precepts”, sđd.