PAOLO BENANTI: THÔNG TRI ANTIQUA ET NOVA MỜI GỌI CHÚNG TA ĐẶT RA CHO MÌNH NHỮNG CÂU HỎI ĐÚNG ĐẮN
Cuộc phỏng vấn với cha Paolo Benanti, tu sĩ dòng Phanxicô, nhà thần học và chuyên gia về đạo đức công nghệ, chuyên về tác động của trí tuệ nhân tạo đối với thông tin. Ngài đưa ra phân tích của mình về thông tri Antiqua et Nova của các Bộ Giáo lý Đức tin và Văn hóa và Giáo dục.
“Một tài liệu nói với chúng ta: có lẽ đã đến lúc đặt ra những câu hỏi trước khi đưa ra những câu trả lời”. Chính với những lời này mà cha Paolo Benanti, giáo sư tại Đại học Grégorien, đã nhận định về thông tri Antiqua et Nova của Bộ Giáo lý Đức tin và Bộ Văn hóa và Giáo dục, liên quan đến mối quan hệ giữa trí tuệ nhân tạo và trí tuệ con người.
Andrea Tornielli: Theo Cha, đâu là tính mới mẻ của tài liệu này?
Cha Paolo Benanti: Đó là một nhận thức từ phía suy nghĩ của người tí hữu vốn cũng cómục đích đồng hành cùng Giáo hội trong đời sống xã hội. Chúng ta càng đặt câu hỏi về cỗ máy này có khả năng thay thế một phần quyết định của con người, chúng ta càng không tránh khỏi đặt câu hỏi về chính căn tính của con người và tính độc đáo đặc trưng của con người, nghĩa là về điều khiến chúng ta trở thành những thụ tạo trong mối quan hệ với một Đấng Tạo Hóa. Điểm mới thực sự của bản văn này là đặt chúng ta vào một viễn cảnh đúng đắn để đặt câu hỏi về căn tính và khả năng của chúng ta trong việc góp phần bảo vệ và vun trồng thế giới mà Đấng Tạo Hóa đã giao phó cho chúng ta.
Andrea Tornielli: Trí tuệ nhân tạo do đó trở thành cơ hội để tự hỏi chúng ta thực sự là gì?
Cha Paolo Benanti: Đây là một tin tuyệt vời: chỉ 10 hoặc 15 năm trước, những câu hỏi kiểu này về con người dường như đã bị lu mờ. Chúng ta đã có những quyết định chính trị đồng hóa một cách hiệu quả một số loài vượn lớn với con người, hoặc phủ nhận căn tính con người đối với phôi thai hoặc với những người đang sống giai đoạn cuối của cuộc đời. Điều tưởng chừng như một vấn đề đã được xếp vào quá khứ, đột nhiên, nhờ vào nỗ lực của nhân loại, đã trở lại trong cuộc tranh luận công khai và sự quan tâm toàn cầu. Vấn đề này có một ý nghĩa kép: một mặt, nó mang tính nhân học, như tài liệu đã nhấn mạnh rõ ràng; mặt khác, nó chắc chắn có những hậu quả xã hội và do đó chúng ta có thể tưởng tượng rằng nó sẽ được khai triển trong khuôn khổ học thuyết xã hội của Giáo hội.
Andrea Tornielli: Đâu là sự khác biệt giữa cái gọi là trí tuệ nhân tạo và trí tuệ con người?
Cha Paolo Benanti: Chính bản tính con người – vốn khó có thể chứa đựng trong một định nghĩa hoặc một chu vi định trước – khiến chúng ta nói rằng khi nói về Con người, chúng ta đang nói về một thứ dễ mô tả hơn ở nhiều chiều kích của nó. Nếu nghĩ về cách người Hy Lạp nói về trí tuệ, chúng ta phải thừa nhận rằng từ này ở “số nhiều“: Ulysse được định nghĩa là “mưu mẹo“, “trí tuệ“, với từ “metis” chỉ một dạng trí tuệ có khả năng tìm ra giải pháp cho các vấn đề thực tế . Ngược lại, khi họ nói về một trí tuệ có khả năng nắm bắt được ý nghĩa của tổng thể, thì người Hy Lạp sử dụng từ “nous“. Chúng ta đã có ở đó, trong khuôn khổ tư tưởng phương Tây, một trí tuệ con người ở số nhiều, có khả năng đi theo nhiều hướng. Trí tuệ nhân tạo không thay thế tất cả các dạng trí tuệ này: nó rất giỏi trong việc chiến thắng các trò chơi, tìm ra giải pháp, nó có khả năng của một “metis” tuyệt vời. Nhưng “nous“, trí tuệ tìm kiếm ý nghĩa của tổng thể và có khả năng hướng cuộc đời mình tới một chân trời, một tương lai, thậm chí là siêu việt, đó chỉ là của con người.
Andrea Tornielli: Chúng ta phải lo sợ điều gì từ những ứng dụng của trí tuệ nhân tạo?
Cha Paolo Benanti: Nếu có thể đưa ra một lời dí dỏm, tôi có thể nói rằng điều đầu tiên đáng phải sợ là sự ngu ngốc đương nhiên. Bởi vì cỗ máy không tự thay thế chính nó: chính chúng ta, sau những tính toán hoặc cố gắng tối ưu hóa một số quy trình, mới có thể sử dụng cỗ máy bằng cách khiến nó lựa chọn thay cho Con người. Và một cỗ máy mạnh mẽ như vậy, có khả năng lựa chọn giữa vô số lựa chọn trong vài phần của giây, không phải luôn có thể thay thế cái mà con người chúng ta gọi là một quyết định, tức là điều gì đó thuộc về sự khôn ngoan. Đây là tất cả tính hai mặt của một AI có khả năng thực hiện mọi việc với tốc độ và hiệu quả cao, trong khi con người được mời gọi đặt câu hỏi về ý nghĩa. Có lẽ chúng ta có thể, hoặc nên, lo sợ tất cả những lựa chọn không dẫn đến quyết định. Ví dụ, chúng ta hãy nghĩ đến lĩnh vực y tế: chẩn đoán không bao giờ là một sự lựa chọn đơn giản giữa các liệu pháp, nhưng là việc đảm nhận trách nhiệm đối với một cuộc sống của con người bằng một cuộc sống khác của con người, điều này ngầm mang đến cho nó một lời hứa chữa lành. Chúng ta phải lo sợ mọi tình huống trong đó chúng ta sẽ trải nghiệm một nhân tính bị hạ thấp để cho phép “tính máy móc” gia tăng. Ngược lại, chúng ta phải thúc đẩy tất cả các ứng dụng duy trì trách nhiệm này của con người về sự sống.
Andrea Tornielli: Tài liệu này nhấn mạnh nhiều đến trách nhiệm của con người và nghĩa vụ giải trình. Tại sao?
Cha Paolo Benanti: Có hai trục chính tạo ra phản hồi tốt đẹp cho tài liệu này. Trục đầu tiên khởi đi từ quan điểm đức tin và đặt câu hỏi về tính đặc thù của con người về mặt lương tâm. Hiến chế Gaudium et Spes nói với chúng ta về nơi thân mật này trong chúng ta, nơi chúng ta nghe thấy một tiếng nói nói với chúng ta vào một số thời điểm: hãy làm điều này và tránh điều kia. Đó là cung thánh nơi Con người nghe được tiếng Chúa. Đây là khuôn khổ của trách nhiệm. Nhưng trong lương tâm của người tín hữu này còn có cả một nhận thức về tác động của sự vô trách nhiệm trong việc đưa ra quyết định của con người. Những nhà văn vĩ đại như Hannah Arendt đã kể lại làm thế nào, trong những vụ thảm sát lớn của thế kỷ trước, người ta đã nỗ lực loại bỏ trách nhiệm khỏi việc đưa ra quyết định của con người nhằm trở thành một phần của vòng xoáy dẫn đến sự mất nhân tính cá nhân và xã hội đến mức tối đa. Hai khả năng này của con người, đức tin và lý trí, song hành với nhau, có thể giúp chúng ta nhận ra làm thế nào đổi mới trí tuệ nhân tạo để nó thực sự trở thành nguồn lực cho sự phát triển của con người.
Andrea Tornielli: Thật không may, chúng ta tiếp tục thấy được vai trò của vũ khí tự hành. Chúng ta có thể nói gì về trí tuệ nhân tạo ứng dụng vào chiến tranh?
Cha Paolo Benanti: Hãy nghĩ đến chúng ta 60.000 năm trước, khi lần đầu tiên chúng ta cầm gậy trong hang động. Đó là một công cụ để hái được nhiều trái dừa và là một vũ khí để gây thương tích đầu người hơn những loại khác. Mỗi lần chúng ta đối diện với công nghệ, chúng ta đều có xu hướng biến công cụ thành vũ khí. Nhưng chúng ta cũng đắm mình trong một lịch sử cứu độ – hãy nhớ đến ngôn sứ Isaia – trong đó vũ khí có thể trở thành công cụ để vun trồng, nuôi dưỡng và mang lại sự sống.
Trong lịch sử tội lỗi và sự hoán cải của chúng ta, những người gây chiến đều bị cám dỗ mạnh mẽ để sử dụng những công cụ có công nghệ mạnh mẽ như vậy. Cho phép tôi nhắc lại với các bạn rằng AI không phải là dạng công nghệ tự hành đầu tiên được sử dụng trong chiến tranh. Hãy nghĩ về mìn sát thương: chúng có tính tự hành! Hệ thống AI có thể được định nghĩa là thứ có thể nhận được mục tiêu từ con người, và tiếp đó điều chỉnh các phương tiện để đạt được mục tiêu này. Tuy nhiên, trong chiến tranh, hơn bao giờ hết, có vẻ như mọi phương tiện đều không ngang nhau: kể từ thảm kịch nguyên tử lớn, chúng ta đã hiểu rằng có những phương tiện cần phải tránh bằng mọi giá. Một cỗ máy, trái ngược với một con người, sẽ không bao giờ mệt mỏi khi theo đuổi mục tiêu của mình và có thể không bao giờ có đình chiến nếu chúng ta chỉ cậy dựa vào máy móc. Năng lực con người càng lớn, thì những vấn đề chúng ta phải trả lời càng triệt để hơn.
Andrea Tornielli: Tại hội nghị thượng đỉnh G7 năm ngoái, Đức Thánh Cha Phanxicô đã tuyên bố rằng quyết định chấm dứt sự sống con người không bao giờ nên được để mặc cho một cỗ máy.
Cha Paolo Benanti: Tiếng nói của Đức Giáo hoàng mang tính ngôn sứ. Đó là một tiếng nói rất mạnh mẽ chỉ ra phương hướng. Chúng ta cần hết sức thận trọng, hay nói đúng hơn, để lấy lại những từ ngữ trong tài liệu, hết sức trách nhiệm.
Andrea Tornielli: Trí tuệ nhân tạo giờ đây cho phép làm giả mạo sự thể hiện của thực tại. Hãy nghĩ về những hình ảnh giả mạo hoặc chỉnh sửa ngày càng khó phân biệt với hình ảnh thật. Hay thậm chí là việc phổ biến rộng rãi “tin giả”. Làm thế nào chống lại những sai lệch này?
Cha Paolo Benanti: Có vẻ như đối với một số người, chân lý đã trở thành thứ gì đó thứ yếu và những câu chuyện hoàn toàn tách rời khỏi các sự việc là có thể xảy ra. Tất cả các nền dân chủ phương Tây đều dựa trên một tiền đề cơ bản: chúng chỉ có thể tồn tại với tư cách là nền dân chủ nếu các công dân có thể tự đưa ra một quan điểm đúng đắn về các sự việc. Do đó, nền dân chủ trao cho nhà báo vai trò “công bộc của dân”: tính chuyên nghiệp của họ tương tự như tính chuyên nghiệp của nhà khoa học tìm kiếm sự thật hoặc của thẩm phán cố gắng xác lập sự kiện. Trí tuệ nhân tạo có thể làm cho một số loại quy trình sản xuất thông tin ít tốn kém hơn nhiều, nhưng nó sẽ không làm cho thông tin trở nên xác thực hơn hoặc hữu ích hơn. Để sống trong một nền dân chủ, chúng ta cần có nền báo chí chuyên nghiệp, và nền báo chí chuyên nghiệp cần có một ngành công nghiệp. Tất cả những điều này có thể bị thiệt hại về mặt kinh tế, hoặc bị phá hủy trong khả năng của nó, bởi trí tuệ nhân tạo được đặt vào tay kẻ xấu hoặc được sử dụng với mục đích xấu.
Andrea Tornielli: Làm thế nào chúng ta có thể tự bảo vệ mình?
Cha Paolo Benanti: Tài liệu nhắc nhở chúng ta về phạm trù trách nhiệm chính, và có những hình thức trách nhiệm, trong không gian công cộng, đảm bảo tính nhất quán của pháp luật. Có lẽ đã đến lúc phải nhấn mạnh đến sự tồn tại của quyền “nhận thức” đối với các cá nhân: quyền được biết nội dung nào đã được xử lý bởi một con người chịu trách nhiệm nghề nghiệp của họ và nội dung nào đã được tạo ra bởi máy móc. Có lẽ chúng ta phải đặt ra một số rào chắn để duy trì sự thật về thông tin và báo chí trên con đường đúng đắn. Tài liệu nói với chúng ta rằng đây có lẽ là lúc để đặt ra cho mình những câu hỏi trước khi đưa ra những câu trả lời.
———————————————————-
Tý Linh chuyển ngữ
(nguồn : Andrea Tornielli – Vatican News)