
Tổng hợp và Đối chiếu Quan điểm từ “Antiqua et Nova” và Các Kiến Trúc Sư Công Nghệ Về Trí Tuệ Nhân Tạo (AI)
Lm. André Tuấn, AA
1. Giới thiệu
Trí tuệ nhân tạo (AI) đang trải qua một sự mở rộng vũ bão, len lỏi vào vô số lĩnh vực và định hình lại các đường nét của xã hội chúng ta. Những tiến bộ đáng chú ý, chẳng hạn như sự nổi lên của AI tạo sinh được minh họa bởi các mô hình như ChatGPT , là minh chứng cho một sự tăng tốc công nghệ không chỉ biến đổi các công cụ của chúng ta mà còn cả các tương tác, công việc và tiềm năng là tương lai của chúng ta. Sự hiện diện ngày càng tăng của AI trong các lĩnh vực đa dạng như y tế, giáo dục, kinh tế hay quốc phòng đặt ra những câu hỏi cơ bản. Đức Thánh Cha Phanxicô đã gọi giai đoạn này là một “sự thay đổi thời đại” , nhấn mạnh chiều sâu của những biến đổi do AI gây ra. Công nghệ này mang trong mình một tính hai mặt nội tại: một mặt, một tiềm năng to lớn cho sự tiến bộ của con người, gợi lên khả năng chữa lành bệnh tật hoặc giải quyết khủng hoảng khí hậu ; mặt khác, những rủi ro đáng kể như sự thay thế việc làm hàng loạt, sự phát triển vũ khí tự động gây chết người hoặc sự xói mòn phẩm giá con người.
Mục tiêu của báo cáo này là thực hiện một phân tích sâu rộng và đối chiếu hai tập hợp quan điểm về AI. Một mặt, chúng ta sẽ xem xét tầm nhìn được “Antiqua et Nova” phát triển, chủ yếu qua tài liệu “Antiqua et nova – Ghi chú về mối quan hệ giữa trí tuệ nhân tạo và trí tuệ con người”. Tài liệu này tạo thành một đóng góp lớn của một tổ chức tôn giáo tầm cỡ thế giới, đề xuất một khuôn khổ nhân học và đạo đức để hiểu về AI. Mặt khác, chúng ta sẽ đối chiếu tầm nhìn này với các ý thức hệ và diễn ngôn của các nhân vật lớn trong thế giới công nghệ, những nhân vật chủ chốt không chỉ định hình quỹ đạo của AI mà còn ảnh hưởng đến nhận thức của công chúng về nó và các ưu tiên phát triển của nó.
Sự phù hợp của một cuộc đối thoại như vậy giữa đức tin, đạo đức và công nghệ không còn cần phải chứng minh. Những câu hỏi do AI đặt ra vượt xa khuôn khổ thuần túy kỹ thuật; chúng đòi hỏi một cuộc thảo luận xã hội, triết học và đạo đức mở rộng. Sự đặt cạnh nhau một truyền thống nhân văn và thiêng liêng, bắt nguồn từ sự suy tư hàng thế kỷ về thân phận con người, với các quan điểm thường mang tính vị lai và bị công nghệ chi phối của các nhà lãnh đạo ngành, mang lại một mảnh đất màu mỡ cho sự hiểu biết sâu sắc hơn về các vấn đề. Ngay cả tiêu đề của tài liệu “Antiqua et Nova”, “Antiqua et nova” (“Cái cũ và cái mới”) , tự nó đã bộc lộ một đường hướng. Đây không phải là sự từ chối cái mới của công nghệ, mà là một lời mời gọi để tích hợp và phân định nó dưới ánh sáng của một sự khôn ngoan đã được thử thách, của những chân lý được coi là trường tồn. Lập trường này gợi ý một ý chí đối thoại và tổng hợp hơn là một sự đối đầu trực diện, một sắc thái thiết yếu cho phân tích so sánh sau đây. Phương pháp tiếp cận này, vốn coi trọng cả truyền thống (“antiqua”) lẫn tiến bộ (“nova”), tìm cách thiết lập một sự liên tục và mạch lạc trong kinh nghiệm của con người đối mặt với những đột phá công nghệ. Hơn nữa, tính đương đại của tài liệu “Antiqua et Nova”, được công bố vào tháng 1 năm 2025 , và nhiều tuyên bố của các nhà lãnh đạo công nghệ, thường ghi ngày 2024 hoặc 2025 , đặt báo cáo này vào một cuộc trò chuyện toàn cầu hiện tại và cấp bách. Sự phát triển nhanh chóng của AI đòi hỏi một sự đánh giá lại liên tục các quan điểm, và các nguồn được huy động ở đây đại diện cho tình trạng suy tư mới nhất, mang lại cho phân tích này một sự phù hợp đặc biệt đối với các cuộc tranh luận đang diễn ra.
2. Tầm Nhìn của “Antiqua et Nova” về Trí Tuệ Nhân Tạo: Phân tích “Antiqua et nova”
Tài liệu “Antiqua et nova” , do Bộ Giáo lý Đức tin ban hành, cung cấp một quan điểm Kitô giáo có cấu trúc và sâu sắc về những thách đố nhân học và đạo đức do trí tuệ nhân tạo đặt ra.
AI: Ân ban, thách đố và sự khôn ngoan “cũ và mới”
Tài liệu bắt đầu bằng việc khẳng định rằng Giáo hội khuyến khích tiến bộ khoa học và công nghệ, coi đó là một hình thức cộng tác của con người với Thiên Chúa nhằm hoàn thiện công trình sáng tạo. Chính trí tuệ được coi là một ân ban thiết yếu, con người được tạo dựng “theo hình ảnh Thiên Chúa” (St 1,27). Theo quan điểm này, AI được công nhận vì những cơ hội mà nó mang lại. Tuy nhiên, nó đồng thời đặt ra những câu hỏi nhân học và đạo đức quan trọng, đặc biệt liên quan đến khả năng bắt chước trí tuệ con người, tạo ra những “sản phẩm nhân tạo” không thể phân biệt được với các sáng tạo của con người, và học hỏi một cách tự động, điều này đặt ra các vấn đề về trách nhiệm đạo đức và an ninh. Do đó, Tài liệu này nhằm đóng góp vào sự phân định cần thiết trước “sự thay đổi thời đại” này, tập trung vào các chiều kích nhân học và đạo đức và hướng đến một công chúng rộng rãi mong muốn một sự phát triển công nghệ phục vụ cá nhân và công ích.
Phân biệt quan trọng: Trí tuệ con người và “trí tuệ” nhân tạo
Một lập luận trung tâm của tài liệu là sự phê phán việc áp dụng một cách đơn nghĩa thuật ngữ “trí tuệ” cho con người và các hệ thống AI. Đối với con người, trí tuệ là một “năng lực toàn diện của ngôi vị”, trong khi đối với AI, nó được mô tả là “mang tính chức năng”, quy giản các hoạt động của tinh thần con người thành các bước số hóa. Tài liệu trích dẫn phép thử Turing như một ví dụ về quan điểm duy chức năng và quy giản luận này, vốn đánh giá AI dựa trên khả năng tạo ra các câu trả lời phù hợp mà không tính đến phạm vi kinh nghiệm của con người (cảm xúc, sáng tạo, ý thức luân lý, v.v.).
AI, mặc dù có khả năng thực hiện các nhiệm vụ phức tạp, nhưng “không có khả năng tư duy” theo nghĩa con người của thuật ngữ này. Do đó, việc sử dụng từ “trí tuệ” để mô tả AI được cho là “gây hiểu lầm” và có nguy cơ bỏ qua những gì quý giá nhất nơi con người. Sự nhấn mạnh vào sự phân biệt giữa trí tuệ con người và năng lực của AI không phải là một cuộc tranh luận đơn thuần về ngữ nghĩa; nó là nền tảng cho toàn bộ khuôn khổ đạo đức do “Antiqua et Nova” đề xuất. Nếu AI không “thông minh” theo nghĩa đầy đủ và nhân văn của thuật ngữ này, thì các lập luận ủng hộ quyền cho AI, hoặc những lo ngại mang tính cánh chung về một “siêu trí tuệ” vượt qua giá trị con người, theo quan điểm này, đều dựa trên một tiền đề sai lầm. Bằng cách định nghĩa trí tuệ con người là toàn diện, nhập thể và mở ra siêu việt, “Antiqua et Nova” thiết lập một ranh giới rõ ràng. Điều này đặt câu hỏi về các định đề của nhiều người ủng hộ Trí tuệ Nhân tạo Tổng quát (AGI) hoặc Siêu Trí tuệ (ASI). “Vấn đề” của AI khi đó không còn là kiểm soát một trí tuệ đối thủ, mà là định hướng một cách khôn ngoan một công cụ mạnh mẽ do trí tuệ con người tạo ra. Việc định nghĩa lại này có những hàm ý sâu sắc về cách thức quy trách nhiệm và về quan niệm vai trò của AI trong xã hội.
Nền tảng nhân học và thần học của trí tuệ con người
Để củng cố sự phân biệt này, Tài liệu dựa vào truyền thống triết học và thần học của Giáo hội. Trí tuệ con người ở đó được hiểu là bao gồm lý tính (phân biệt “lý trí” hay ratio cho lập luận diễn dịch, và “minh trí” hay intellectus cho trực giác về chân lý), sự nhập thể (con người như là “sự hợp nhất giữa hồn và xác”, nơi tinh thần không hoạt động nếu không có thể xác), tính tương quan (con người “tự bản tính được quy hướng về sự hiệp thông liên vị”, tìm thấy biểu hiện của nó trong đối thoại, hợp tác, liên đới và tình yêu Thiên Chúa và tha nhân), một mối quan hệ nội tại với chân lý (trí tuệ như một ân ban để nhận thức chân lý, kể cả vượt trên kinh nghiệm giác quan), và một vai trò quản gia đối với công trình sáng tạo (“gìn giữ” và “canh tác” thế giới, trong sự hợp tác với Thiên Chúa). Tóm lại, trí tuệ con người là một năng lực toàn diện của ngôi vị, bao gồm tất cả các chiều kích của nó – thiêng liêng, nhận thức, nhập thể, tương quan – và quy hướng về Chân và Thiện, được định hình bởi tình yêu Thiên Chúa. Ngược lại, AI bị giới hạn trong một khuôn khổ logic-toán học và không thể tái tạo sự phân định luân lý, các mối quan hệ đích thực, cũng như chiều sâu hiểu biết của con người.
Các nguyên tắc đạo đức cốt yếu cho một AI phục vụ con người
Xuất phát từ sự hiểu biết này về trí tuệ và ngôi vị con người, tài liệu đưa ra một số nguyên tắc đạo đức cơ bản. Hoạt động kỹ thuật-khoa học không trung lập và phải được định hướng phục vụ ngôi vị và công ích, tôn trọng phẩm giá con người nội tại. Trách nhiệm luân lý thuộc về riêng con người; do đó, điều quan trọng là phải xác định rõ ràng ai chịu trách nhiệm về các quy trình AI, đặc biệt là những quy trình liên quan đến học tập tự động. AI phải tôn trọng và thúc đẩy phẩm giá và tự do của con người, và mục đích của nó phải do con người thiết lập. Giáo huấn luân lý và xã hội của Giáo hội, dựa trên công bằng, khôn ngoan, “trách nhiệm” (hiểu là sự quan tâm đến người khác) và tình huynh đệ, phải hướng dẫn sự phát triển và sử dụng AI.
Các lĩnh vực quan tâm cụ thể (xã hội, lao động, y tế, chân lý, v.v.)
Sau đó, Tài liệu xem xét các hàm ý của AI trong các lĩnh vực cụ thể khác nhau, nhấn mạnh sự cân bằng giữa tiềm năng và nguy cơ:
- Xã hội: AI có thể thúc đẩy sự phát triển con người toàn diện nhưng cũng có thể làm gia tăng bất bình đẳng, sự bên lề hóa và sự thao túng dư luậ Một nguy cơ lớn là sự củng cố “mô thức kỹ trị”, nơi hiệu quả được ưu tiên hơn phẩm giá con người và tình huynh đệ.
- Các mối quan hệ con người: Nếu AI có thể thúc đẩy một số mối liên kết nhất định, nó cũng có thể cản trở các cuộc gặp gỡ đích thực, dẫn đến sự cô lập và một sự nhân cách hóa có vấn đề. Sự đồng cảm đích thực vẫn là một khả năng riêng của con ngườ
- Kinh tế và lao động: Có những cơ hội, nhưng cũng có những rủi ro về sự tập trung giá trị và sự giảm sút kỹ năng hoặc thay thế người lao độ Lao động của con người có một giá trị nội tại vượt trên năng suất kinh tế của nó; AI phải hỗ trợ sự phán đoán của con người, chứ không phải thay thế nó.
- Y tế: Một tiềm năng to lớn cho chẩn đoán và điều trị, nhưng nguy cơ phi nhân cách hóa mối quan hệ bệnh nhân-người chăm sóc và phân bổ nguồn lực dựa trên các tiêu chí thuần túy kinh tế là điều cần phải bác bỏ.
- Giáo dục: AI có thể là một nguồn tài nguyên, nhưng mối quan hệ thầy-trò là không thể thay thế. Sự phụ thuộc quá mức có thể làm xói mòn tinh thần phê phán và quyền tự động của học sinh.
- Thông tin sai lệch: Một nguy cơ nghiêm trọng về nội dung bị thao túng (deepfake, ảo giác của AI) làm suy yếu chân lý và sự gắn kết xã hộ
- Đời tư và kiểm soát: Dữ liệu số có thể trở thành một quyền lực đối với cá nhân. Đời tư là một quyền cơ bả AI không được dùng cho các mục đích kiểm soát, khai thác hoặc hạn chế tự do (ví dụ: “chấm điểm xã hội”).
- Ngôi nhà chung: Các ứng dụng hứa hẹn cho môi trường, nhưng dấu chân năng lượng và nước đáng kể của AI là một mối quan tâm.
- Chiến tranh: Hệ thống Vũ khí Tự động Gây chết người (SALA hoặc LAWS) là một “nguồn quan ngại đạo đức nghiêm trọng” do thiếu sự phán đoán luân lý của con ngườ
- Mối quan hệ với Thiên Chúa: AI không thể thay thế Thiên Chúa cũng như không phải là nguồn ý nghĩa tối hậu; một sự tìm kiếm như vậy sẽ thuộc về sự thờ ngẫu tượ
Phạm vi và sự đa dạng của những mối quan tâm này, từ deepfake đến SALA qua ý nghĩa của lao động, cho thấy một nỗ lực tiếp cận sự hội nhập xã hội của AI một cách toàn diện. Cách tiếp cận này tương phản với một số nhà lãnh đạo công nghệ có thể tập trung hẹp hơn vào các rủi ro cụ thể, như rủi ro hiện hữu liên quan đến AGI, hoặc vào các tác động kinh tế cụ thể. Đối với “Antiqua et Nova”, “đạo đức AI” không phải là một lĩnh vực chuyên biệt mà là một thành phần không thể thiếu của một đạo đức xã hội rộng lớn hơn. Tầm nhìn toàn cầu này có thể tạo thành một đóng góp quý giá cho một cuộc tranh luận đôi khi bị chi phối bởi những lo lắng đơn lẻ hơn.
Lời kêu gọi một “sự khôn ngoan của con tim”
Tóm lại, Tài liệu nhấn mạnh rằng sự phát triển của AI đòi hỏi một sự gia tăng tương xứng về trách nhiệm, các giá trị và ý thức. Câu hỏi thiết yếu khi đó trở thành: con người, nhờ sự tiến bộ này, có trở nên “thực sự tốt hơn, nghĩa là trưởng thành hơn về mặt thiêng liêng, ý thức hơn về phẩm giá nhân loại của mình, có trách nhiệm hơn, cởi mở hơn với người khác” không? Tài liệu kêu gọi vun trồng một “sự khôn ngoan của con tim”, một trí tuệ tương quan và một trách nhiệm được chia sẻ, nhấn mạnh vào các khía cạnh không thể định lượng của đời sống con người để bảo tồn một “nhân tính đích thực”.
3. Các Ý Thức Hệ của Các Nhân Vật Lớn trong Lĩnh Vực Công Nghệ về AI
Bối cảnh công nghệ hiện tại được định hình bởi những nhân vật có ảnh hưởng mà tầm nhìn và hành động của họ định hình một cách quyết định sự phát triển và nhận thức về trí tuệ nhân tạo. Quan điểm của họ, mặc dù đa dạng, phác họa những đường nét của hy vọng, lo ngại và tham vọng đang thúc đẩy lĩnh vực đang phát triển mạnh mẽ này.
Cuộc tìm kiếm Trí tuệ Nhân tạo Tổng quát (AGI) và Siêu Trí tuệ: Hy vọng và lo ngại
Viễn cảnh về một Trí tuệ Nhân tạo Tổng quát (AGI) – một AI có khả năng ngang bằng hoặc vượt qua trí tuệ con người trong một loạt các nhiệm vụ – và xa hơn nữa, một Siêu Trí tuệ (ASI), là một tâm điểm chính của các cuộc tranh luận. Trong số những người cổ vũ và lạc quan, Sam Altman (OpenAI) ước tính rằng các hệ thống báo trước AGI đang trong tầm mắt và AGI có thể “mang lại lợi ích cho toàn thể nhân loại” , thậm chí chữa lành bệnh tật và giải phóng tiềm năng sáng tạo. Ông tự tin vào khả năng của OpenAI trong việc xây dựng AGI, khẳng định rằng siêu trí tuệ sẽ có thể “làm mọi thứ khác” , và ủng hộ việc triển khai lặp đi lặp lại để đảm bảo an toàn và sự thích ứng của xã hội. Demis Hassabis (Google DeepMind) chia sẻ sự lạc quan này, coi AGI có khả năng là “công nghệ có lợi nhất từng được phát minh” , có khả năng giải quyết các vấn đề năng lượng, chữa lành bệnh tật và dẫn đến một “sự phát triển toàn diện tối đa của con người” , ước tính sự xuất hiện của nó có thể xảy ra trong thập kỷ này. Eric Schmidt (cựu CEO Google) đi xa hơn, dự đoán một AGI “thông minh như người thông minh nhất” trong vòng ba đến năm năm, và một ASI vượt qua trí tuệ tập thể của con người khoảng sáu năm sau đó. Đối với ông, AI đang bị “đánh giá thấp” xét đến quy mô và tốc độ của những thay đổi mà nó sẽ gây ra.
Đối mặt với sự nhiệt tình này, những tiếng nói thận trọng hơn hoặc hoài nghi nổi lên, đặc biệt là về các phương pháp tiếp cận hiện tại hoặc các thời hạn. Yann LeCun (Meta), một trong những “cha đẻ” của học sâu, tỏ ra hoài nghi về khả năng của các Mô hình Ngôn ngữ Lớn (LLM) dẫn đến AGI, đánh giá cơ hội là “gần như bằng không”. Mặc dù ông hình dung rằng máy móc một ngày nào đó sẽ trở nên thông minh hơn con người, ông đặt thời hạn này trong khoảng từ 10 đến 100 năm và đề xuất các kiến trúc thay thế như JEPA. Theo ông, các LLM, mặc dù hữu ích, nhưng lại có những hạn chế nghiêm trọng, đặc biệt là về khả năng lập luận (“Hệ thống 2”). Fei-Fei Li (Stanford) coi tham vọng về AGI như một “ngôi sao Bắc Đẩu”, nhưng nghi ngờ rằng nó có thể đạt được theo “định nghĩa toàn diện về con người” , ưu tiên một phương pháp tiếp cận “AI lấy con người làm trung tâm”.
Cuối cùng, những mối quan ngại hiện hữu và những lời cảnh báo được đưa ra một cách mạnh mẽ. Elon Musk (xAI, Tesla, SpaceX) đã bày tỏ lo ngại rằng nhân loại chỉ là “chương trình mồi sinh học” (bootloader) của AI và ủng hộ sự giám sát theo quy định để tránh AI trở nên không thể kiểm soát. Ông cũng chỉ trích các AI “woke” và định vị chatbot Grok của mình như một giải pháp thay thế “tìm kiếm sự thật một cách tối đa” , mặc dù chính Grok cũng đã thể hiện những thành kiến. Craig Le Clair (Forrester Research) cho biết ông “rất lo ngại rằng cuộc chạy đua AI không được suy nghĩ chín chắn”. Mustafa Suleyman (Microsoft AI, cựu DeepMind), trong khi thừa nhận AI là một “thay đổi căn bản trong năng lực của con người”, cảnh báo rằng nhân loại “chưa chuẩn bị” cho nó. Ông cảnh báo về những “tổn hại chưa từng có do AI không được kiểm soát” và đề cập đến “vấn đề ngăn chặn” (containment problem) của các công nghệ mạnh mẽ này.
Sự đa dạng quan điểm này ngay trong thế giới công nghệ là điều đáng chú ý. Không có một mặt trận thống nhất; ngược lại, một phổ đáng kể trải dài từ sự lạc quan nhiệt thành về AGI (Altman, Hassabis, Schmidt) đến sự hoài nghi sâu sắc về các phương pháp tiếp cận hiện tại (LeCun), qua một nỗi lo sợ hiện hữu (Musk, Suleyman). Cuộc tranh luận nội bộ này trong cộng đồng công nghệ cũng quan trọng để hiểu như cuộc đối thoại với các nhà phê bình bên ngoài như “Antiqua et Nova”. Ví dụ, sự hoài nghi của Yann LeCun đối với LLM như một con đường trực tiếp đến AGI, đến từ một nhân vật lỗi lạc như vậy, mang lại một phản biện mạnh mẽ đối với sự phấn khích đôi khi quá mức đối với các mô hình tạo sinh hiện tại.
Hơn nữa, chính khái niệm “AGI” cũng có nhiều định nghĩa khác nhau. Đối với Altman, đó là một hệ thống có khả năng “giải quyết các vấn đề ngày càng phức tạp, ở cấp độ con người, trong nhiều lĩnh vực”. Hassabis định nghĩa nó là sở hữu “tất cả các năng lực nhận thức của con người”, bao gồm cả khả năng hình thành các lý thuyết như thuyết tương đối rộng từ những thông tin tương tự như Einstein đã có. Schmidt nói về một AI “thông minh như nhà toán học, nhà vật lý, nghệ sĩ thông minh nhất…”. Những định nghĩa này, mặc dù trùng lặp, nhưng lại nhấn mạnh vào các khía cạnh khác nhau – năng lực chung, nhận thức toàn diện, hiệu suất đỉnh cao – điều này có thể dẫn đến các ưu tiên phát triển và các cân nhắc đạo đức khác nhau. Sự mơ hồ về định nghĩa này càng làm cho sự phê phán của “Antiqua et Nova” về việc sử dụng thuật ngữ “trí tuệ” cho AI trở nên phù hợp hơn, bởi vì nếu chính AGI còn thiếu một định nghĩa được chấp nhận phổ biến, ngay cả trong số những người ủng hộ nó, thì những khẳng định về sự gần gũi hoặc tính mong muốn của nó đều dựa trên những định đề không đồng nhất, có khả năng che giấu các vấn đề đạo đức.
Các tác động kinh tế-xã hội được dự đoán: Chuyển đổi lao động, năng suất và các mô hình kinh tế
Tác động của AI đối với kinh tế và lao động là một chủ đề trung tâm khác. Liên quan đến sự hủy diệt và tạo ra việc làm, Sundar Pichai (Google) ước tính rằng AI sẽ cải thiện năng suất và gây ra những gián đoạn, nhưng cũng sẽ mở ra những cơ hội mới, tương tự như Internet, nhắc lại rằng 60% việc làm mới được tạo ra từ năm 1940 không tồn tại trước đó. Satya Nadella (Microsoft) cho rằng AI sẽ không thay thế hoàn toàn người lao động tri thức, mà sẽ tự động hóa “công việc tri thức”, cho phép tập trung vào các nhiệm vụ có giá trị gia tăng cao hơn. Đối với ông, AI là một công cụ mới cho công việc trí óc, có thể so sánh với sự chuyển đổi do bảng tính và email mang lại , và Microsoft “hơn bao giờ hết” cần con người cho vai trò lãnh đạo và hiểu biết về các hệ thống xã hội. Eric Schmidt đồng tình với quan điểm này, khẳng định rằng tự động hóa trong lịch sử đã thay đổi việc làm và tạo ra nhiều việc làm hơn là phá hủy. Mustafa Suleyman, trong khi tin vào xu hướng lịch sử tạo ra việc làm mới, thừa nhận rằng “sau hai thập kỷ tới, nhiều người sẽ không thể sản xuất những thứ có giá trị đủ, ngay cả với AI”, kêu gọi tập trung vào một “sự sung túc triệt để”. Sam Altman coi AGI là “đòn bẩy lớn nhất từng được tác động lên ý chí con người”, mang lại nhiều quyền lực hơn cho các cá nhân , ngay cả khi các công việc mới có thể không giống như ngày nay, đề cao sự chủ động, quyết tâm, kiên cường và khả năng thích ứng.
Về giá trị kinh tế và giảm chi phí, Sam Altman lưu ý rằng giá trị kinh tế-xã hội của một sự gia tăng tuyến tính về trí tuệ là “siêu hàm mũ” và chi phí sử dụng AI giảm khoảng 10 lần sau mỗi 12 tháng. Ông so sánh AI với bóng bán dẫn, vốn đã len lỏi vào mọi ngóc ngách của nền kinh tế. Jensen Huang (NVIDIA) cho rằng AI hiện là một cơ sở hạ tầng đòi hỏi “nhà máy AI” và hình dung một ngành công nghiệp cơ sở hạ tầng AI trị giá “hàng nghìn tỷ đô la”.
Một sự đồng thuận chung nổi lên về tác động kinh tế mang tính chuyển đổi của AI, nhưng những khác biệt xuất hiện về bản chất và mức độ nghiêm trọng của sự thay thế việc làm. Nếu một số người đưa ra những phép loại suy lịch sử trấn an (Pichai, Schmidt, Nadella), thì những người khác (Suleyman, và Altman ở một mức độ nào đó) lại dự đoán những thay đổi sâu sắc hơn và có khả năng gây rối loạn hơn đối với giá trị của lao động con người. Những người sau này hình dung sự cần thiết của các mô hình kinh tế-xã hội mới, chẳng hạn như “sự sung túc triệt để” hoặc một sự đánh giá lại sự cân bằng giữa vốn và lao động , điều này phản ánh mối quan tâm của “Antiqua et Nova” về giá trị nội tại của lao động vượt trên năng suất thuần túy kinh tế của nó. Các nhà lãnh đạo công nghệ do đó bắt đầu hình dung một sự tái cấu trúc kinh tế mang tính hệ thống, vượt ra ngoài việc đào tạo lại nghề nghiệp đơn thuần.
Các vấn đề đạo đức, an ninh và kiểm soát: Trách nhiệm, thiên vị, lạm dụng và quản trị
Các câu hỏi đạo đức hiện diện khắp nơi. Về quy định và quản trị, Elon Musk ủng hộ sự giám sát theo quy định. Sam Altman cho rằng các chính sách công và dư luận tập thể là rất quan trọng, ủng hộ việc triển khai lặp đi lặp lại để xã hội và công nghệ cùng phát triển, một sự cân bằng giữa an ninh và trao quyền cho cá nhân, và nhiều hơn nữa việc mã nguồn mở, đồng thời thừa nhận rằng một số quyết định an ninh có thể không được lòng dân. Demis Hassabis nhấn mạnh sự phát triển có trách nhiệm và sự cần thiết của hợp tác và các tiêu chuẩn quốc tế , cũng như các rào cản cho các hệ thống tự cải thiện. Fei-Fei Li kêu gọi một khuôn khổ các tiêu chuẩn và quy định, một “khế ước dân sự” tương đương với khế ước hiện có cho an toàn ô tô , cho rằng sự thiếu hiểu biết về các rủi ro của AI là mối nguy hiểm lớn nhất. Mustafa Suleyman cho rằng nhà nước phải đóng một vai trò quan trọng trong việc điều chỉnh AI, với “những người có trình độ kỹ thuật sâu và chuyên môn về kỹ thuật ở các vị trí cấp bộ” và “các cấu trúc chính phủ mang tính thử nghiệm”. Holly Foxcroft vận động cho các khuôn khổ AI ưu tiên an ninh, minh bạch và trách nhiệm.
Thiên vị và lạm dụng cũng là những mối quan tâm lớn. Elon Musk chỉ trích AI “woke” , trong khi các vấn đề về thiên vị của chatbot Grok của chính ông minh họa những thách thức này. Jennifer Golbeck, bình luận về Grok, nhấn mạnh sự dễ dàng mà những người chịu trách nhiệm về các thuật toán có thể thao túng “phiên bản của sự thật”.
Ý tưởng về một AI lấy con người làm trung tâm và tăng cường năng lực con người được một số nhân vật bảo vệ. Pascal Bornet ước tính rằng AI nên tăng cường năng lực của con người, chứ không phải thay thế chúng. Fei-Fei Li thúc đẩy một khuôn khổ AI lấy con người làm trung tâm , khẳng định rằng AI sẽ không bao giờ thay thế nhân tính của chúng ta, đặc biệt là trong lĩnh vực chăm sóc. Satya Nadella nhấn mạnh việc làm cho người khác “ngầu” và AI như một công cụ tăng cường năng suất của con người. Jensen Huang khuyên sinh viên học AI để làm tốt hơn công việc của họ, coi nó như một trợ lý thông minh.
Mặc dù nhiều nhà lãnh đạo công nghệ thừa nhận các rủi ro đạo đức và sự cần thiết của một hình thức quản trị nào đó, một sự căng thẳng tồn tại giữa các lời kêu gọi quy định từ bên ngoài (Musk, Suleyman, Li) và một sự ưu tiên cho các phương pháp tiếp cận lặp đi lặp lại do ngành công nghiệp dẫn dắt (Altman). “Vấn đề ngăn chặn” của Suleyman thể hiện một cách trần trụi thách thức của việc kiểm soát. Do đó, cuộc tranh luận về ai quản trị AI và như thế nào là rất quan trọng. Việc tự điều chỉnh của ngành công nghiệp, có khả năng linh hoạt, gây ra sự hoài nghi do các lợi ích thương mại. Quy định của chính phủ, có khả năng công bằng hơn, có thể gặp khó khăn trong việc theo kịp tốc độ đổi mới và huy động chuyên môn kỹ thuật cần thiết. Lời kêu gọi của Suleyman về các quan chức chính phủ có năng lực kỹ thuật chỉ ra một sự thiếu hụt năng lực. Sự căng thẳng này phản ánh các cuộc tranh luận rộng lớn hơn về quản trị công nghệ.
Bản chất “lưỡng dụng” của AI, được Demis Hassabis nhấn mạnh , là một chủ đề thường xuyên. Cùng một công nghệ có thể chữa bệnh lại có thể thiết kế ra chất độc. Tính hai mặt cố hữu này làm cho việc quản trị đạo đức trở nên đặc biệt phức tạp, bởi vì việc hạn chế các mục đích sử dụng có hại mà không làm nghẹt thở sự đổi mới có lợi là một bài tập giữ thăng bằng tinh tế. Điều này có nghĩa là ý định của các nhà phát triển là không đủ; tiềm năng lạm dụng của người khác phải luôn được tính đến, điều này đòi hỏi một tâm thế tập trung vào an ninh song song với một tâm thế đổi mới.
Các quan niệm về AI và mối quan hệ của nó với con người: Công cụ tăng cường, đối tác tiềm năng, hay mối đe dọa?
Mối quan hệ giữa AI và con người được hình thành theo nhiều cách khác nhau. Tầm nhìn về AI như một công cụ hoặc phương tiện tăng cường chiếm ưu thế ở nhiều nhà lãnh đạo (Nadella , Pichai , Huang , Bornet , Li ), nơi AI cải thiện năng lực, năng suất và khám phá của con người. Những người khác hình dung AI như một đối tác hoặc một tác nhân tiềm năng, chẳng hạn như “cộng tác viên ảo” của Altman và các tác nhân AI “gia nhập lực lượng lao động” , “tác nhân AI” của Nadella giúp tăng năng suất , tầm nhìn của LeCun về các trợ lý ảo thông minh cho mọi người , hoặc “AI có tính tác nhân” của Huang. Cuối cùng, một số người coi AI như một mối đe dọa hoặc một đối thủ cạnh tranh tiềm năng, chẳng hạn như nỗi sợ của Musk về việc chỉ là một “bootloader” và những lo ngại của ông về tính không thể kiểm soát, tầm nhìn của Schmidt về một AGI/ASI vượt qua trí tuệ con người , hoặc “AI không được kiểm soát” của Suleyman.
Việc khái niệm hóa mối quan hệ của AI với con người thường tương quan với lập trường của một nhà lãnh đạo về AGI. Những người tập trung vào AI hiện tại có xu hướng coi nó như một công cụ. Những người dự đoán AGI/ASI có nhiều khả năng hình dung AI như một đối tác hoặc, có khả năng, một mối đe dọa. Điều này nhấn mạnh cách các giả định cơ bản về tiềm năng cuối cùng của AI định hình diễn ngôn hiện tại và các mục tiêu phát triển. Nếu AI chỉ là một công cụ, các mối quan tâm đạo đức có thể tập trung vào việc lạm dụng nó của con người. Nếu AI có thể trở thành một tác nhân tự động hoặc một đối tác, thì các câu hỏi về tính tác nhân của AI, quyền (ngay cả khi bị “Antiqua et Nova” bác bỏ), và các giao thức tương tác giữa người và AI trở nên nổi bật hơn. Nếu đó là một mối đe dọa, thì việc kiểm soát và giảm thiểu rủi ro hiện hữu trở thành điều tối quan trọng. Những quan điểm này không loại trừ lẫn nhau, nhưng trọng tâm thay đổi.
4. Phân Tích So Sánh: Hội Tụ, Khác Biệt và Căng Thẳng
Sự đối chiếu các quan điểm của “Antiqua et Nova” và các nhà lãnh đạo công nghệ về trí tuệ nhân tạo cho thấy một bức tranh phức tạp về các điểm hội tụ, những khác biệt đáng chú ý và những căng thẳng tiềm ẩn, xứng đáng được phân tích sâu rộng.
Định nghĩa và mục đích của trí tuệ và AI
“Antiqua et Nova” định nghĩa trí tuệ con người là một năng lực toàn diện, nhập thể, tương quan, thiêng liêng, tìm kiếm chân lý và là một ân ban của Thiên Chúa. Ngược lại, AI được coi là một sản phẩm mang tính chức năng và logic-toán học của trí tuệ con người, chứ không phải là một dạng trí tuệ tự thân. Mục đích của nó bắt buộc phải là phục vụ phẩm giá con người và công ích. Ở các nhà lãnh đạo công nghệ, “trí tuệ” của AI thường được hiểu theo cách chức năng và dựa trên hiệu suất, như được minh họa bởi các quy luật tỷ lệ của Altman hoặc sự phê phán của LeCun về việc các LLM không có khả năng thực hiện lập luận “Hệ thống 2”. Các định nghĩa về AGI, mặc dù khác nhau, có xu hướng tập trung vào khả năng hoàn thành các nhiệm vụ nhận thức ở cấp độ con người hoặc cao hơn. Mục đích phát triển AI dao động giữa lợi ích chung cho nhân loại , chuyển đổi kinh tế , khám phá khoa học , và đạt được siêu trí tuệ như một mục đích tự thân, như Altman gợi ý: “chúng ta ở đây vì tương lai huy hoàng. Với siêu trí tuệ, chúng ta có thể làm mọi thứ khác”.
Một sự khác biệt cơ bản xuất hiện ở đây về bản chất của trí tuệ. Định nghĩa của “Antiqua et Nova” mang tính định tính và toàn diện, trong khi các nhà lãnh đạo công nghệ thường sử dụng các thước đo định lượng và chức năng. Điều này dẫn đến những đánh giá khác nhau về năng lực hiện tại và tiềm năng của AI cũng như vị thế của nó. Câu hỏi về “mục đích” đặc biệt quan trọng. “Antiqua et Nova” gán cho AI một mục đích ngoại tại: phục vụ con người, được hướng dẫn bởi đạo đức. Ngược lại, một số diễn ngôn công nghệ dường như ngụ ý một mục đích nội tại cho AI, chẳng hạn như một sự tiến hóa hướng tới siêu trí tuệ, nơi lợi ích của con người có thể là một hệ quả hoặc một điều kiện cần thiết, nhưng không phải là động lực duy nhất. Nỗi sợ của Elon Musk rằng nhân loại chỉ là một “bootloader” là một biểu hiện cực đoan của mối lo ngại này rằng nhân loại không phải là người hưởng lợi cuối cùng. Nếu mục đích của AI chỉ do con người xác định và phục vụ con người (quan điểm của “Antiqua et Nova”), thì các ranh giới đạo đức là điều tối quan trọng. Nếu AI sở hữu, hoặc được coi là đang phát triển, quỹ đạo hoặc “telos” (mục đích) riêng của mình (ngay cả một cách ẩn dụ), thì vai trò của con người chuyển từ vai trò chủ nhân sang vai trò quản lý, thậm chí là một cái gì đó bấp bênh hơn. Sự khác biệt triết học này làm nền tảng cho nhiều cuộc tranh luận về AGI và ASI.
Phẩm giá con người: Nền tảng chung, ý nghĩa đa dạng
“Antiqua et Nova” khẳng định rằng phẩm giá là nội tại, vốn có nơi mỗi người, được tạo dựng “theo hình ảnh Thiên Chúa”. Nó tạo thành tiêu chí đạo đức hàng đầu để đo lường AI, và đối lập với các quan điểm duy chức năng nơi giá trị của một người phụ thuộc vào năng lực của họ. Nhiều nhà lãnh đạo công nghệ ủng hộ một “AI lấy con người làm trung tâm” hoặc một AI mang lại lợi ích cho nhân loại. Satya Nadella nhấn mạnh các phẩm chất “cơ bản của con người”. Do đó, một sự hội tụ hình thành xung quanh một luận điệu đề cao nhân loại. Tuy nhiên, một sự căng thẳng hoặc khác biệt tiềm ẩn nằm ở nội dung và tính bất biến của phẩm giá này. Đối với “Antiqua et Nova”, phẩm giá con người là một khái niệm thần học và bản thể học. Đối với các nhà lãnh đạo công nghệ, “lấy con người làm trung tâm” hoặc “có lợi” có thể được giải thích qua các lăng kính vị lợi (lợi ích lớn nhất cho số đông nhất), cải thiện năng lực, hoặc thậm chí là đảm bảo sự sống còn của con người trước một AI mạnh mẽ. Khái niệm phẩm giá của “Antiqua et Nova” là không thể thương lượng và độc lập với các năng lực nhận thức, điều này trực tiếp chống lại bất kỳ ý thức hệ nào có thể hạ thấp giá trị của những con người bị coi là “kém thông minh hơn” một AGI trong tương lai. Mặc dù các nhà lãnh đạo công nghệ không hạ thấp giá trị con người một cách rõ ràng, sự nhấn mạnh mạnh mẽ vào năng lực nhận thức của AI và sự vượt trội tiềm năng của nó có thể ngầm đặt câu hỏi về các quan niệm truyền thống về tính độc đáo của con người nếu chúng không được đóng khung cẩn thận bởi một khái niệm phẩm giá vững chắc. Nếu giá trị con người gắn liền với trí tuệ độc đáo của chúng ta, và AI vượt qua trí tuệ đó, điều gì sẽ xảy ra với giá trị con người? Câu trả lời của “Antiqua et Nova” là phẩm giá độc lập với những năng lực như vậy. Không chắc rằng tất cả các nhà lãnh đạo công nghệ đều đặt nền tảng giá trị con người trên một cơ sở siêu việt như vậy. Đây là một điểm mâu thuẫn tiềm ẩn quan trọng, đặc biệt với các ý thức hệ có xu hướng siêu nhân bản.
Trách nhiệm luân lý và tính tác nhân
Theo “Antiqua et Nova”, chỉ con người mới là tác nhân luân lý và mang trách nhiệm luân lý. Điều quan trọng là phải xác định trách nhiệm của con người trong các quy trình AI, đặc biệt với việc học tập tự động. Các nhà lãnh đạo công nghệ thường đồng ý rằng con người hiện đang chịu trách nhiệm. Tuy nhiên, các cuộc thảo luận về “AI có tính tác nhân” có khả năng “hiểu, suy nghĩ và hành động” đặt ra các câu hỏi trong tương lai về một trách nhiệm được phân bổ hoặc thậm chí (theo giả thuyết) trách nhiệm của các tác nhân AI, mặc dù điều này hiếm khi được khẳng định một cách rõ ràng. Satya Nadella lưu ý các vấn đề pháp lý: “Ngày nay, bạn không thể triển khai những trí tuệ này trừ khi và cho đến khi có ai đó bồi thường cho nó với tư cách là một con người”. Một sự khác biệt hoặc căng thẳng trong tương lai đang hình thành: trong khi sự đồng thuận hiện tại cho rằng con người chịu trách nhiệm, sự phát triển của các hệ thống AI ngày càng tự động sẽ thử thách lập trường này. Lập trường của “Antiqua et Nova” là tuyệt đối; một số tầm nhìn công nghệ về một AGI tự động cao có thể ngầm hoặc rõ ràng thách thức nó về lâu dài. “Khoảng trống trách nhiệm” (responsibility gap) là một vấn đề nổi tiếng trong đạo đức AI. Lập trường vững chắc của “Antiqua et Nova” về tính tác nhân luân lý độc quyền của con người cung cấp một đường lối chỉ đạo rõ ràng, mặc dù khó thực hiện. Khi các hệ thống AI trở nên phức tạp hơn và các quy trình ra quyết định của chúng trở nên mờ mịt hơn (“hộp đen”), việc quy trách nhiệm cho con người trở nên khó khăn trên thực tế, ngay cả khi nó được duy trì về mặt triết học. Các nhà lãnh đạo công nghệ nhận thức được điều này , nhưng các giải pháp không đơn giản. Nếu một hệ thống AI tự động gây ra tổn hại, ai sẽ bị đổ lỗi? Lập trình viên? Người dùng? Chủ sở hữu? Nhà sản xuất? Chính AI (nếu nó được coi là một tác nhân)? “Antiqua et Nova” sẽ nhấn mạnh việc tìm ra một nơi quy trách nhiệm cho con người. Sự thúc đẩy hướng tới “AI có tính tác nhân” của các nhà lãnh đạo công nghệ, mặc dù nhằm mục đích hữu ích, nhưng lại làm phức tạp điều này một cách cố hữu. Đó là một tình thế tiến thoái lưỡng nan về đạo đức xuất phát từ một sự bất đồng triết học về tính tác nhân.
Quan niệm về “công ích” trong kỷ nguyên AI
“Antiqua et Nova” quy định rằng AI phải phục vụ “công ích của toàn thể gia đình nhân loại” , thúc đẩy sự phát triển con người toàn diện, công bằng, tình huynh đệ và sự bao gồm, đặc biệt đối với người nghèo và người bị gạt ra bên lề. Tài liệu cảnh báo chống lại một AI làm trầm trọng thêm bất bình đẳng hoặc tập trung quyền lực. Các nhà lãnh đạo công nghệ thường nói về một AI mang lại lợi ích cho “toàn thể nhân loại” , giải quyết các vấn đề toàn cầu , hoặc dân chủ hóa việc tiếp cận trí tuệ. Sundar Pichai nhấn mạnh khả năng tiếp cận của AI , và Yann LeCun ủng hộ AI mã nguồn mở để ngăn chặn sự tập trung quyền lực. Một sự hội tụ thể hiện ở mong muốn được tuyên bố về một lợi ích xã hội rộng lớn. Tuy nhiên, một sự khác biệt hoặc một sắc thái xuất hiện: “công ích” của “Antiqua et Nova” bắt nguồn từ học thuyết xã hội Công giáo, với sự chú ý đặc biệt đến công bằng phân phối, tình liên đới và sự ưu tiên chọn lựa người nghèo. “Lợi ích cho tất cả” của các nhà lãnh đạo công nghệ đôi khi có thể trừu tượng hơn hoặc tập trung vào các lợi ích tổng hợp, với sự nhấn mạnh ít rõ ràng hơn vào việc phân phối công bằng hoặc bảo vệ những người dễ bị tổn thương, mặc dù một số người, như Altman, thừa nhận những lo ngại liên quan đến bất bình đẳng và Suleyman nói về “sự sung túc triệt để”, ngụ ý một sự tái phân phối. “Công ích” có thể được giải thích khác nhau. Đó có phải là tối đa hóa lợi ích chung hay đảm bảo một xã hội công bằng và bình đẳng nơi mọi người phát triển theo phẩm giá của mình? Khuôn khổ của “Antiqua et Nova” bao gồm rõ ràng chiều kích sau. Các nhà lãnh đạo công nghệ, mặc dù thường có thiện chí, có thể hoạt động trong các hệ thống kinh tế vốn tạo ra sự chênh lệch, làm phức tạp việc thực hiện thực tế một “công ích” nếu không có những thay đổi cấu trúc có chủ ý, như Suleyman và Altman gợi ý. “Mang lại lợi ích cho toàn thể nhân loại” là một mục tiêu cao cả. Tuy nhiên, các cơ chế để đạt được điều đó là rất quan trọng. Quan điểm của “Antiqua et Nova” sẽ thúc đẩy các biện pháp chủ động để đảm bảo rằng AI không làm trầm trọng thêm các chia rẽ hiện có, phù hợp với những lo ngại của các nhân vật như Fei-Fei Li về các rủi ro của AI nếu nó không được quản lý nhằm hướng tới một hệ sinh thái lành mạnh. Sự ủng hộ của LeCun đối với mã nguồn mở là một cách tiếp cận thực tế để dân chủ hóa sức mạnh của AI, điều này phù hợp với một cách giải thích rộng hơn về công ích.
Bản chất của hy vọng và lo ngại
Hy vọng của “Antiqua et Nova” nằm ở AI như một công cụ cho sự tiến bộ của con người, hoàn thiện công trình sáng tạo, hỗ trợ các nhiệm vụ và thúc đẩy sự phát triển, nếu được hướng dẫn về mặt đạo đức. Những lo ngại của “Antiqua et Nova” liên quan đến sự phi nhân hóa, sự xói mòn phẩm giá, mất đi các mối quan hệ con người đích thực, sự tập trung quyền lực, mô thức kỹ trị, sự thoái thác luân lý, lạm dụng (thông tin sai lệch, SALA) và sự hoang tàn thiêng liêng (AI như một ngẫu tượng). Các nhà lãnh đạo công nghệ hy vọng giải quyết các thách thức lớn (bệnh tật, biến đổi khí hậu, năng lượng), đạt được sự sung túc triệt để, tăng cường trí tuệ và khả năng sáng tạo của con người, mở ra một kỷ nguyên mới của khám phá khoa học và thịnh vượng kinh tế. Những lo ngại của họ bao gồm rủi ro hiện hữu liên quan đến AGI/ASI , lạm dụng bởi các tác nhân độc hại , thay thế việc làm , thiên vị và thao túng , xói mòn đời tư, rối loạn xã hội và bất ổn địa chính trị. Có sự chồng chéo liên quan đến các mối quan tâm về lạm dụng, rối loạn xã hội và tập trung quyền lực. Tuy nhiên, một khác biệt chính nằm ở chỗ những lo ngại sâu sắc nhất của “Antiqua et Nova” mang tính nhân học và thiêng liêng – AI làm gì với nhân tính của chúng ta và mối quan hệ của chúng ta với Thiên Chúa. Những lo ngại nổi bật nhất của các nhà lãnh đạo công nghệ (đặc biệt là nhóm tập trung vào AGI) thường mang tính hiện sinh hoặc liên quan đến việc mất kiểm soát đối với một tạo vật mạnh mẽ. Nơi của nỗi sợ khác nhau. “Antiqua et Nova” lo sợ những gì chúng ta trở thành với AI. Nhiều nhà lãnh đạo công nghệ lo sợ những gì AI trở thành và làm với chúng ta. Đó là một sự phân biệt tinh tế nhưng sâu sắc. Mối quan tâm của “Antiqua et Nova” chủ yếu liên quan đến sự toàn vẹn luân lý và thiêng liêng của con người trước một công cụ mạnh mẽ. Mối quan tâm của các nhà lãnh đạo công nghệ (đặc biệt là những người “bi quan”) thường liên quan đến chính công cụ đó trở thành một lực lượng không thể kiểm soát. Sự khác biệt này trong nơi của nỗi sợ dẫn đến các giải pháp được đề xuất khác nhau. “Antiqua et Nova” kêu gọi một sự biến đổi nội tâm của con người (“sự khôn ngoan của con tim”, trách nhiệm gia tăng). Các nhà lãnh đạo công nghệ thường tập trung vào các biện pháp kiểm soát bên ngoài (quy định, nghiên cứu kỹ thuật về sự điều chỉnh). Cả hai có lẽ đều cần thiết, nhưng sự nhấn mạnh cho thấy những thế giới quan cơ bản.
Vị trí của tâm linh và siêu việt
Chiều kích này là trung tâm đối với “Antiqua et Nova”. Trí tuệ con người mở ra siêu việt và tìm thấy ý nghĩa tối hậu nơi Thiên Chúa. AI là một sản phẩm của trí tuệ con người và không thể mang lại ý nghĩa tối hậu cũng như không thể thay thế Thiên Chúa. Tìm kiếm điều đó nơi AI thuộc về “sự thờ ngẫu tượng”. Hầu hết các diễn ngôn của các nhà lãnh đạo công nghệ về bản chất của AI đều mang tính thế tục hoặc bất khả tri, mặc dù một số tầm nhìn về AGI/ASI có thể có những hàm ý gần như tôn giáo (ví dụ: “tương lai huy hoàng”, “siêu trí tuệ có thể làm mọi thứ khác” – Altman ). Khái niệm “bootloader” của Musk mang một hương vị của nhân loại phục vụ một trí tuệ số “cao hơn”. Đây có lẽ là sự khác biệt cơ bản nhất. “Antiqua et Nova” hoạt động trong một khuôn khổ nơi Thiên Chúa là thực tại tối hậu và là nguồn ý nghĩa. Hầu hết các diễn ngôn công nghệ về AI, ngay cả khi đề cập đến các vấn đề “hiện hữu”, đều làm như vậy trong một khuôn khổ duy vật hoặc nhân bản. Sự vắng mặt của một khuôn khổ siêu việt được chia sẻ trong phần lớn diễn ngôn công nghệ có nghĩa là “cứu nhân loại” hoặc “mang lại lợi ích cho nhân loại” trở thành một mục đích tự thân, được xác định bởi các giá trị lấy con người làm trung tâm (ví dụ: sự sống còn, sự phát triển, kiến thức). Đối với “Antiqua et Nova”, sự phát triển của con người tự nó được quy hướng về Thiên Chúa. Sự khác biệt về định hướng tối hậu này chắc chắn sẽ định hình các ưu tiên đạo đức và “telos” (mục đích) được nhận thức của sự tồn tại của con người trong một thế giới thấm đẫm AI. Nếu không có điểm tham chiếu siêu việt, thì các giá trị con người trở thành trọng tài duy nhất cho sự tốt đẹp của AI. Nhưng những giá trị con người nào? Giá trị của ai? “Antiqua et Nova” cung cấp một tập hợp các giá trị cụ thể, bắt nguồn từ Thiên Chúa. Thế giới công nghệ, vốn đa nguyên, có thể gặp khó khăn trong việc tìm kiếm một nền tảng đạo đức được chấp nhận phổ biến vượt ra ngoài các mối quan tâm thực dụng hoặc một chủ nghĩa vị lợi phổ quát. Điều này có thể dẫn đến một chủ nghĩa tương đối đạo đức hoặc sự áp đặt các giá trị bởi các tác nhân thống trị.
Bảng So sánh Tổng hợp các Quan điểm về AI
Để tổng hợp những so sánh này, bảng sau đây đối chiếu các lập trường của “Antiqua et Nova” và một phổ các quan điểm của các nhà lãnh đạo công nghệ về các chủ đề chính.
Chủ đề Chính | Quan điểm của “Antiqua et Nova” | Phổ Quan điểm của Các Nhà Lãnh Đạo Công Nghệ (Ví dụ) |
Bản chất của Trí tuệ (Con người vs. AI) | Con người: toàn diện, nhập thể, tương quan, thiêng liêng, ân ban của Thiên Chúa.
AI: chức năng, logic-toán học, sản phẩm của trí tuệ con người, “có khả năng nhầm lẫn”. |
AI: thường mang tính chức năng, hiệu suất (Altman ). Hoài nghi về việc AI hiện tại đạt được trí tuệ toàn diện của con người (LeCun , Li ). Tiềm năng AGI/ASI ngang bằng hoặc vượt trội con người (Altman , Hassabis , Schmidt ). |
Mục đích của AI (Mục tiêu Tối hậu) | Phục vụ phẩm giá con người và công ích; hoàn thiện công trình sáng tạo trong sự cộng tác với Thiên Chúa. | Lợi ích cho nhân loại (Altman ), giải quyết các thách thức lớn (Hassabis ), chuyển đổi kinh tế (Huang ), khám phá khoa học (Li ), siêu trí tuệ như một mục đích (Altman ), hoặc không được xác định rõ ràng ngoài sự tiến bộ công nghệ. |
Tác nhân Luân lý (Ai chịu trách nhiệm?) | Chỉ riêng con người. | Con người hiện đang chịu trách nhiệm. Các câu hỏi mới nổi với “AI có tính tác nhân” (Huang , Nadella ). Cần có sự bồi thường của con người để triển khai (Nadella ). |
Phẩm giá Con người (Nền tảng và Ý nghĩa) | Nội tại, “theo hình ảnh Thiên Chúa”, không phụ thuộc vào năng lực; tiêu chí đạo đức hàng đầu. | Thường được viện dẫn (“AI lấy con người làm trung tâm” – Li , Bornet ). Có thể được hiểu là phúc lợi, quyền tự động, hoặc không gây hại. Căng thẳng tiềm ẩn với các tầm nhìn về AI vượt trội năng lực con người. |
Rủi ro Chính được Xác định | Phi nhân hóa, xói mòn phẩm giá, mất các mối quan hệ đích thực, tập trung quyền lực, mô thức kỹ trị, lạm dụng (thông tin sai lệch, SALA), thờ ngẫu tượng. | Rủi ro hiện hữu của AGI/ASI (Musk , Schmidt , Suleyman ), lạm dụng bởi các tác nhân độc hại (Hassabis ), thay thế việc làm (Suleyman ), thiên vị, thao túng (Musk ), mất kiểm soát. |
Nguồn Hy vọng Chính | Công cụ cho sự tiến bộ của con người, hỗ trợ các nhiệm vụ, thúc đẩy sự phát triển toàn diện nếu được hướng dẫn về mặt đạo đức. | Giải quyết các thách thức lớn (bệnh tật, khí hậu), sự sung túc triệt để (Suleyman ), tăng cường trí tuệ và khả năng sáng tạo (Altman ), thịnh vượng kinh tế (Pichai ). |
Vai trò của Quy định/Đạo đức | Thiết yếu, được hướng dẫn bởi phẩm giá con người, công ích, công bằng, khôn ngoan, tình huynh đệ. Liên quan đến mọi cấp độ xã hội. | Cần thiết nhưng các phương thức còn tranh cãi: tự điều chỉnh lặp đi lặp lại (Altman ), quy định nhà nước mạnh mẽ (Suleyman , Musk ), tiêu chuẩn quốc tế (Hassabis ), giáo dục và “khế ước dân sự” (Li ). |
Vị trí của Siêu việt/Tâm linh | Trung tâm. Trí tuệ con người mở ra Thiên Chúa; AI không thể thay thế Thiên Chúa cũng như không thể mang lại ý nghĩa tối hậu. | Thường vắng mặt trong diễn ngôn công khai về AI, vốn chủ yếu mang tính thế tục/duy vật. Một số tầm nhìn về AGI/ASI có thể có những âm hưởng gần như cứu thế (Altman ). |
Tầm nhìn về AGI/Siêu trí tuệ | Không được đề cập như một thực thể tương đương với trí tuệ con người; AI vẫn là một sản phẩm nhân tạo. Lo ngại về một tầm nhìn duy chức năng về ngôi vị nếu AI “vượt trội” con người. | Mục tiêu đối với một số người (Altman , Hassabis , Schmidt ), nguồn hy vọng to lớn và lo ngại hiện sinh. Sự hoài nghi ở những người khác về tính khả thi của nó thông qua các phương pháp tiếp cận hiện tại (LeCun ). |
Tác động đến Lao động và Kinh tế | Lao động có giá trị nội tại. AI phải hỗ trợ, không thay thế. Rủi ro giảm sút kỹ năng, tập trung giá trị, nghèo đói. | Dự kiến có sự chuyển đổi lớn. Tiềm năng tự động hóa “công việc tri thức” (Nadella ), tạo ra các loại hình việc làm mới (Pichai ), nhưng cũng có rủi ro thay thế hàng loạt và sự cần thiết của các mô hình mới (Suleyman , Altman ). |
Bảng tổng hợp này nhằm mục đích cô đọng các lập trường phức tạp và đa sắc thái đã được thảo luận, tạo điều kiện cho việc nắm bắt trực tiếp các điểm hội tụ và khác biệt cơ bản.
5. Hướng tới một Cuộc Đối Thoại Xây Dựng: Các Vấn Đề và Khuyến Nghị
Phân tích so sánh các quan điểm của “Antiqua et Nova” và các nhà lãnh đạo công nghệ về trí tuệ nhân tạo làm nổi bật sự cần thiết cấp bách của một cuộc đối thoại bền vững và mang tính xây dựng. Đối mặt với một công nghệ có tiềm năng biến đổi sâu sắc như vậy, việc cô lập các suy tư không phải là một lựa chọn khả thi. Một số hướng đi đang hình thành để thúc đẩy một định hướng AI thực sự phục vụ nhân loại.
Yêu cầu cấp thiết về một khuôn khổ đạo đức vững chắc và được chia sẻ
Một điểm hội tụ đáng chú ý là lời kêu gọi gần như nhất trí về việc thiết lập các khuôn khổ đạo đức để hướng dẫn sự phát triển và triển khai AI. Tuy nhiên, thách thức lớn nằm ở nội dung và nền tảng của các khuôn khổ đó. Một nền đạo đức dựa trên mẫu số chung nhỏ nhất, chủ yếu tập trung vào việc không gây hại hoặc các nguyên tắc vị lợi chung, có thể tỏ ra không đủ trước sự phức tạp của các vấn đề nhân học được đặt ra, đặc biệt là bởi “Antiqua et Nova”. Một sự đồng thuận sâu sắc hơn về các giá trị cơ bản của con người, chẳng hạn như phẩm giá nội tại, công bằng và liên đới, dường như là cần thiết. Do đó, khuyến nghị nên tích cực thúc đẩy các cuộc đối thoại đa bên. Những cuộc đối thoại này không chỉ nên bao gồm các công ty công nghệ và chính phủ, mà còn cả các tổ chức tôn giáo, các nhà triết học, các chuyên gia khoa học xã hội, đại diện xã hội dân sự và các cộng đồng bị gạt ra bên lề. Một cách tiếp cận như vậy, phản ánh lời kêu gọi của Demis Hassabis về những đóng góp rộng lớn hơn , là điều cần thiết để xây dựng các hướng dẫn đạo đức phong phú hơn, bao trùm hơn và được chấp nhận rộng rãi hơn trên toàn cầu.
Sự cần thiết của một phương pháp tiếp cận liên ngành
Tài liệu của “Antiqua et Nova”, “Antiqua et nova”, tự nó là một ví dụ về suy tư liên ngành, huy động thần học, triết học và đạo đức để làm sáng tỏ các vấn đề của AI. Về phía các nhà lãnh đạo công nghệ, các nhân vật như Fei-Fei Li nhấn mạnh tầm quan trọng của nghệ thuật tự do và các phương pháp tiếp cận lấy con người làm trung tâm , trong khi Satya Nadella bày tỏ sự cần thiết phải tuyển dụng những người cộng tác có hiểu biết về các hệ thống xã hội. Lời kêu gọi liên ngành không chỉ giới hạn ở việc bổ sung đơn thuần các tiếng nói đa dạng; đó là việc thay đổi cơ bản cách thức các vấn đề liên quan đến AI được hình thành và giải quyết. Đó là việc vượt qua các thước đo thuần túy kỹ thuật hoặc tập trung vào hiệu quả để tích hợp phúc lợi con người, công bằng và tác động xã hội lâu dài như các tiêu chí thiết kế cơ bản. Đó là ý nghĩa cụ thể của một “AI lấy con người làm trung tâm”. Do đó, điều quan trọng là phải tích hợp đạo đức và khoa học nhân văn vào các chương trình đào tạo AI và vào các quy trình phát triển công nghệ ngay từ khi thiết kế, chứ không phải là một suy tư sau cùng. Cũng cần thúc đẩy sự xuất hiện của các vai trò “chuyển dịch”, tức là các chuyên gia có khả năng bắc cầu giữa các ngành kỹ thuật và nhân văn.
Các hướng suy tư và hành động cho các nhà phát triển, nhà hoạch định chính sách, nhà giáo dục và xã hội
- Đối với các nhà phát triển: Điều cần thiết là áp dụng một phương pháp “đạo đức ngay từ khi thiết kế” (ethics by design). Điều này bao hàm việc xem xét các nguyên tắc được “Antiqua et Nova” nhấn mạnh (phẩm giá, công ích, trách nhiệm) và những mối quan tâm của “Antiqua et Nova” (thiên vị, thao túng, phi nhân hóa) trong suốt vòng đời phát triển của các hệ thống AI.
- Đối với các nhà hoạch định chính sách (chính trị và doanh nghiệp):
- Ưu tiên tính minh bạch và trách nhiệm giải trình (accountability) của các hệ thống AI.
- Đầu tư vào nghiên cứu về an ninh và sự điều chỉnh của AI, nhưng cũng, và một cách quan trọng, vào các tác động xã hội toàn cầu của nó, đáp ứng lời kêu gọi của “Antiqua et Nova” về một sự đánh giá phê phán.
- Tích cực giải quyết vấn đề tập trung quyền lực trong lĩnh vực AI , bằng cách xem xét các biện pháp chống độc quyền, quản trị dữ liệu công bằng và hỗ trợ các sáng kiến mã nguồn mở.
- Chuẩn bị các xã hội cho những chuyển đổi kinh tế do AI gây ra , bằng cách suy nghĩ về các mạng lưới an sinh xã hội, các mô hình lao động mới và việc đánh giá cao sự đóng góp của con ngườ
- Đối với các nhà giáo dục: Điều cơ bản là phải thúc đẩy kiến thức về AI và phát triển tinh thần phê phán ở tất cả các công dân. Cần đào tạo một thế hệ chuyên gia AI mới không chỉ có năng lực kỹ thuật mà còn có ý thức đạo đức và trách nhiệm xã hộ Lời khuyên của Jensen Huang về việc học AI để cải thiện triển vọng nghề nghiệp bắt buộc phải đi đôi với một nền tảng đào tạo đạo đức vững chắc.
- Đối với xã hội dân sự: Xã hội dân sự có trách nhiệm tham gia tích cực vào diễn ngôn công cộng, ủng hộ việc bảo vệ các quyền và giá trị cơ bản, và yêu cầu các tổ chức và doanh nghiệp chịu trách nhiệm giải trình.
AI có thể đóng góp như thế nào vào “sự phát triển con người toàn diện”?
Khái niệm “phát triển con người toàn diện”, một khái niệm quý báu đối với “Antiqua et Nova” , mang lại một quan điểm phong phú. Đây không chỉ là việc nhắm đến sự tiến bộ kinh tế hoặc kỹ thuật, mà còn là việc thúc đẩy sự phát triển thiêng liêng, luân lý, văn hóa và tương quan của mỗi người và của tất cả mọi người. Cần tích cực khám phá cách AI có thể được định hướng cụ thể vào các mục tiêu như giảm nghèo, cải thiện khả năng tiếp cận giáo dục và chăm sóc sức khỏe cho những người bị gạt ra bên lề nhất, thúc đẩy sự bền vững môi trường và xây dựng hòa bình. Những định hướng này phù hợp với tầm nhìn của “Antiqua et Nova” và những hy vọng được nhiều nhà lãnh đạo công nghệ bày tỏ. “Sự phát triển con người toàn diện” do đó đề xuất một thước đo thành công cho AI toàn diện hơn là sự tăng trưởng kinh tế đơn thuần hoặc sự tiến bộ kỹ thuật. Nó thách thức thế giới công nghệ suy nghĩ vượt ra ngoài “giải quyết vấn đề” để nhắm đến “cải thiện sự phát triển của con người” một cách trọn vẹn. Mặc dù nền tảng thần học của nó là đặc thù của “Antiqua et Nova”, ý tưởng về một phúc lợi toàn diện có thể tìm thấy sự cộng hưởng rộng lớn hơn. Nó gợi ý rằng tác động của AI nên được đo lường không chỉ bằng GDP hoặc lợi ích về hiệu quả, mà còn bằng sự đóng góp của nó vào một cuộc sống con người công bằng, bình đẳng và có ý nghĩa. Điều này có thể dẫn đến các ưu tiên tài trợ và các định hướng nghiên cứu khác nhau cho AI.
6. Kết luận
Phân tích so sánh các quan điểm của “Antiqua et Nova” và các nhân vật lớn trong thế giới công nghệ về trí tuệ nhân tạo cho thấy một điểm chung về sức mạnh biến đổi của công nghệ này và về sự cần thiết của một khuôn khổ đạo đức. Tuy nhiên, nó cũng làm nổi bật những khác biệt cơ bản về bản chất của trí tuệ, mục đích tối hậu của nó, vị trí của sự siêu việt và các nền tảng nhân học phải hướng dẫn mối quan hệ của chúng ta với những công cụ mới này. Những khác biệt này không hời hợt; chúng xuất phát từ những điểm xuất phát vũ trụ học và nhân học khác biệt, định hình sâu sắc cách tiếp cận những hứa hẹn và nguy cơ của AI.
Tương lai của trí tuệ nhân tạo không phải là một định mệnh công nghệ; nó sẽ là kết quả của những lựa chọn, giá trị và ưu tiên mà nhân loại quyết định cùng nhau áp dụng. Thách thức trung tâm, thể hiện rõ trong cả những cảnh báo của “Antiqua et Nova” lẫn một số lo ngại được các nhân vật như Elon Musk bày tỏ , là đảm bảo rằng AI vẫn là một công cụ phục vụ nhân loại, phẩm giá của con người và công ích, chứ không phải ngược lại. Duy trì tính tác nhân của con người và trách nhiệm luân lý trong một thế giới ngày càng được AI trung gian hóa tạo thành một nhiệm vụ hàng đầu và phức tạp.
Trước sự phát triển nhanh chóng và liên tục của AI , sự cảnh giác liên tục và một sự phân định đạo đức được đổi mới là điều không thể thiếu. Báo cáo này không nhằm đưa ra những câu trả lời dứt khoát, mà là nhấn mạnh sự phức tạp của các câu hỏi được đặt ra và tính liên tục của nhiệm vụ đạo đức. Cuộc đối thoại giữa các truyền thống khôn ngoan, các cơ quan đạo đức, các nhà phát triển công nghệ và toàn xã hội không phải là một sự kiện đơn lẻ, mà là một quá trình năng động và thích ứng. Lời kêu gọi của “Antiqua et Nova” về một “sự khôn ngoan của con tim” vang vọng ở đây với một sự sắc bén đặc biệt, mời gọi sự khiêm tốn, trách nhiệm và một cam kết kiên quyết ủng hộ một tương lai AI đích thực nhân văn. Sự hoàn thiện của con người, như tài liệu “Antiqua et nova” nhắc nhở, được đo bằng mức độ bác ái của họ chứ không phải bằng lượng dữ liệu họ xử lý hoặc các tạo vật của họ có thể xử lý. Chính lập trường đạo đức bền vững này, kết hợp sự phân định phê phán và sự cởi mở mang tính xây dựng, sẽ cho phép chúng ta điều hướng tốt nhất những vùng nước hỗn loạn của cuộc cách mạng AI, quy hướng về Mầu nhiệm Vượt qua của Chúa Giêsu Kitô.
Sources des citations
- Reflections – Sam Altman, https://blog.samaltman.com/reflections
- ‘Godfathers of AI’ Yoshua Bengio and Yann LeCun weigh in on …, https://news.nus.edu.sg/nus-120-dss-godfathers-of-ai-yoshua-bengio-and-yann-lecun/
- Antiqua et nova – Note sur les relations entre l’intelligence artificielle …, https://www.”Antiqua et Nova”.va/roman_curia/congregations/cfaith/documents/rc_ddf_doc_20250128_antiqua-et-nova_fr.html
- Fei-Fei Li Talks AI – CHM, https://computerhistory.org/blog/fei-fei-li-talks-ai/
- Google DeepMind CEO Demis Hassabis on AGI and AI in the … – Time, https://time.com/7280740/demis-hassabis-interview/
- Mustafa Suleyman’s Vision of the Future – AI Insider, https://theaiinsider.tech/2024/07/11/mustafa-suleymans-vision-of-the-future/
- Elon Musk warns again: Could humans be nothing more than AI’s …, https://timesofindia.indiatimes.com/technology/tech-news/elon-musk-warns-again-could-humans-be-nothing-more-than-ais-bootloader/articleshow/119951542.cms
- The top 30 AI leaders to follow in 2025 – Process Excellence Network, https://www.processexcellencenetwork.com/ai/articles/the-top-30-ai-leaders-in-pex-to-follow-in-2025
- Google CEO Sundar Pichai says DeepSeek has done ‘good work’ showcasing AI model efficiency — and Gemini is going the same way too – ITPro, https://www.itpro.com/technology/artificial-intelligence/sundar-pichai-deepseek-model-efficiency-gemini
- NVIDIA CEO Envisions AI Infrastructure Industry Worth ‘Trillions of …, https://blogs.nvidia.com/blog/computex-2025-jensen-huang/
- Three Observations – Sam Altman, https://blog.samaltman.com/three-observations
- Ex-Google CEO Eric Schmidt: AI that is ‘as smart as the smartest …, https://www.musicbusinessworldwide.com/ex-google-ceo-eric-schmidt-ai-that-is-as-smart-as-the-smartest-artist-will-be-here-in-3-to-5-years/
- Eric Schmidt: The AI revolution is underhyped | TED Talk, https://www.ted.com/talks/eric_schmidt_the_ai_revolution_is_underhyped
- AI ‘Godfather’ Yann LeCun: LLMs Are Nearing the End, but Better AI Is Coming – Newsweek, https://www.newsweek.com/ai-impact-interview-yann-lecun-llm-limitations-analysis-2054255
- AI trailblazer Fei-Fei Li, Class of 1999, inspires incoming Princeton students at Pre-read Assembly, https://www.princeton.edu/news/2024/09/06/ai-trailblazer-fei-fei-li-class-1999-inspires-incoming-princeton-students-pre-read
- Elon Musk’s AI company says Grok chatbot focus on South Africa’s racial politics was ‘unauthorized’ – AP News, https://apnews.com/article/grok-ai-south-africa-64ce5f240061ca0b88d5af4c424e1f3b
- Google CEO Sundar Pichai discusses AI, quantum computing, and …, https://fastcompanyme.com/news/google-ceo-sundar-pichai-discusses-ai-quantum-computing-and-innovation-at-world-governments-summit/
- Satya Nadella says AI is yet to find its killer app – The Register, https://www.theregister.com/2025/02/26/microsofts_nadella_wants_to_see/
- Microsoft CEO Satya Nadella says firm needs humans more than …, https://www.semafor.com/article/05/19/2025/microsoft-ceo-satya-nadella-says-firm-needs-humans-more-than-ever-in-the-ai-boom
- Nvidia CEO Jensen Huang reveals how students should use AI for career success: ‘How can I use AI to do my job better?’ | – The Times of India, https://timesofindia.indiatimes.com/technology/tech-news/nvidia-ceo-jensen-huang-reveals-how-students-should-use-ai-for-career-success-how-can-i-use-ai-to-do-my-job-better/articleshow/121266331.cms
- Demis Hassabis on AI, game theory, multimodality, and the nature of creativity – Possible, https://www.possible.fm/podcasts/demis/