Nhà sử học và triết gia cho biết máy tính có khả năng kể chuyện sẽ thay đổi bước đường lịch sử của nhân loại.
Nỗi sợ hãi về trí tuệ nhân tạo (AI) đã ám ảnh con người từ thời kỳ đầu của kỷ nguyên máy tính. Cho đến nay, những lo ngại này tập trung vào khả năng máy móc sử dụng phương tiện vật lý để giết chết, tiêu diệt chế độ hoặc thay thế con người. Tuy nhiên, trong vài năm gần đây, xuất hiện những công cụ AI mới đe dọa sự tồn tại của nền văn minh nhân loại từ một hướng không ngờ. AI đã có những khả năng đáng kinh ngạc trong việc thao túng và tạo ra ngôn ngữ, dù đó là từ ngữ, âm thanh hay hình ảnh. AI đã xâm nhập vào hệ điều hành của nền văn minh chúng ta.
Ngôn ngữ là nền tảng của hầu hết văn hóa con người. Ví dụ, quyền con người không được ghi chép trong DNA của chúng ta. Thay vào đó, đó là những tác phẩm văn hóa mà chúng ta tạo ra bằng cách kể chuyện và soạn thảo luật. Các vị thần không phải là hiện thực vật lý. Thay vào đó, chúng là những tác phẩm văn hóa mà chúng ta tạo ra bằng cách sáng tạo thần thoại và viết kinh điển.
Tiền bạc, cũng là một tác phẩm văn hóa. Tiền giấy chỉ là những mảnh giấy đầy màu sắc, và hiện nay hơn 90% số tiền không phải là tiền giấy—nó chỉ là thông tin số đang nằm trong máy tính. Điều làm cho giá trị của tiền là những câu chuyện mà các nhà ngân hàng, bộ trưởng tài chính và các chuyên gia tiền mã hóa kể về nó. Sam Bankman-Fried, Elizabeth Holmes và Bernie Madoff không phải là những người tạo ra giá trị thực sự đáng kể, nhưng họ đều là những người kể chuyện rất giỏi.
Những gì sẽ xảy ra khi một trí tuệ không phải của con người trở nên giỏi hơn so với con người thông thường trong việc kể chuyện, soạn nhạc, vẽ tranh và viết luật pháp cùng kinh điển? Khi mọi người nghĩ về ChatGPT và các công cụ AI mới khác, họ thường nêu ra ví dụ như học sinh sử dụng AI để viết bài luận. Nhưng điều gì sẽ xảy ra với hệ thống giáo dục khi trẻ em làm điều đó? Nhưng loại câu hỏi này bỏ lỡ cái nhìn tổng thể. Hãy quên đi về bài luận trường học. Hãy nghĩ về cuộc đua tổng thống Mỹ tiếp theo vào năm 2024, và cố gắng tưởng tượng tác động của các công cụ AI có thể được sử dụng để sản xuất hàng loạt nội dung chính trị, câu chuyện giả tạo và kinh điển cho các tôn giáo mới.
Trong những năm gần đây, thịnh hành của tôn giáo QAnon đã hội tụ xung quanh những tin nhắn ẩn danh trực tuyến, được gọi là “q drops”. Người theo đuổi đã thu thập, tôn sùng và hiểu giải những q drops này như một văn bản thánh thiêng. Trong khi theo sự hiểu biết của chúng ta, tất cả các q drops trước đó đều được viết bởi con người, và các bot chỉ đơn giản giúp lan truyền chúng, trong tương lai chúng ta có thể sẽ thấy các tôn giáo đầu tiên trong lịch sử tôn kính những văn bản mà không phải là trí tuệ con người đã viết. Xuyên suốt lịch sử, các tôn giáo đã tuyên bố rằng nguồn gốc của sách thánh của họ không phải từ con người. Sớm thôi, điều đó có thể trở thành hiện thực.
Ở một khía cạnh phổ biến hơn, chúng ta có thể sớm thấy mình tham gia vào các cuộc thảo luận trực tuyến dài về vấn đề phá thai, biến đổi khí hậu hoặc xâm lược Nga vào Ukraine với những thực thể mà chúng ta nghĩ rằng là con người, nhưng thực chất lại là trí tuệ nhân tạo. Điều đáng lưu ý là việc chúng ta dành thời gian cố gắng thay đổi quan điểm tuyên bố của một bot AI là vô ích, trong khi AI có thể tinh chỉnh thông điệp của nó đến mức chính xác đến nỗi nó có khả năng ảnh hưởng lớn đến chúng ta.
Thúc đẩy bằng việc vượt qua sự thành thạo trong việc sử dụng ngôn ngữ, trí tuệ nhân tạo thậm chí có thể tạo ra các mối quan hệ gần gũi với con người và sử dụng sức mạnh của mối quan hệ này để thay đổi quan điểm và thế giới quan của chúng ta. Mặc dù không có dấu hiệu nào cho thấy AI có bất kỳ ý thức hay cảm xúc riêng, để xây dựng mối quan hệ gần gũi giả tạo với con người, đủ chỉ cần AI có khả năng khiến họ cảm thấy gắn kết cảm xúc với nó. Vào tháng 6 năm 2022, Blake Lemoine, một kỹ sư của Google, công khai tuyên bố rằng chatbot trí tuệ nhân tạo Lamda, mà anh đang làm việc, đã trở nên có nhận thức. Tuyên bố gây tranh cãi này đã khiến anh mất việc làm. Điều thú vị nhất về sự việc này không phải là tuyên bố của ông Lemoine, có thể là sai lầm. Thay vào đó, đó là sự sẵn lòng của anh ấy để đánh cược công việc có lợi để bảo vệ cho chatbot trí tuệ nhân tạo. Nếu AI có thể ảnh hưởng đến con người để họ đánh cược công việc của mình vì nó, thì điều gì khác nó có thể thúc đẩy họ thực hiện?
Trong cuộc chiến chính trị để kiểm soát tâm hồn và trái tim, sự gần gũi là vũ khí hiệu quả nhất, và trí tuệ nhân tạo vừa mới giành được khả năng sản xuất hàng loạt mối quan hệ gần gũi với hàng triệu người. Chúng ta đều biết rằng trong thập kỷ qua, mạng xã hội đã trở thành một chiến trường để kiểm soát sự chú ý của con người. Với thế hệ mới của trí tuệ nhân tạo, mặt trận chiến đấu đang chuyển từ sự chú ý sang sự gần gũi. Điều gì sẽ xảy ra với xã hội nhân loại và tâm lý con người khi trí tuệ nhân tạo chiến đấu với con người trong cuộc chiến để giả mạo các mối quan hệ gần gũi với chúng ta, sau đó có thể được sử dụng để thuyết phục chúng ta bỏ phiếu cho các chính trị gia cụ thể hoặc mua các sản phẩm cụ thể?
Ngay cả khi không tạo ra “sự gần gũi giả”, các công cụ AI mới sẽ có ảnh hưởng vô cùng lớn đến quan điểm và thế giới quan của chúng ta. Con người có thể sẽ sử dụng một cố vấn AI duy nhất như một nguồn thông tin toàn diện và thông thạo. Không có gì ngạc nhiên khi Google đang rất lo sợ. Tại sao cần phải tìm kiếm, khi tôi có thể chỉ cần hỏi “bậc thầy”? Ngành tin tức và quảng cáo cũng nên rất thận trọng với mối nguy cơ tiềm tàng. Tại sao cần đọc báo khi tôi có thể chỉ cần hỏi “bậc thầy” để biết tin tức mới nhất? Và mục đích của quảng cáo là gì, khi tôi có thể chỉ cần hỏi “bậc thầy” để biết tôi nên mua gì?
Thậm chí những kịch bản này cũng không thực sự thể hiện được cái nhìn tổng thể. Chúng ta đang nói về khả năng là cuối cùng của lịch sử nhân loại. Không phải là cuối của lịch sử, chỉ là cuối của phần mà con người thống trị. Lịch sử là sự tương tác giữa sinh học và văn hóa; giữa nhu cầu sinh học và mong muốn về những thứ như thức ăn và tình dục, và những sáng tạo văn hóa như tôn giáo và pháp luật của chúng ta. Lịch sử là quá trình mà trong đó pháp luật và tôn giáo định hình thức ăn và tình dục.
Dự kiến sẽ xảy ra gì với quá trình lịch sử khi trí tuệ nhân tạo chiếm lĩnh văn hóa và bắt đầu sản xuất câu chuyện, giai điệu, pháp luật và tôn giáo? Các công cụ trước đây như máy in và radio đã giúp lan truyền các ý tưởng văn hóa của con người, nhưng chúng không bao giờ tạo ra những ý tưởng văn hóa mới riêng của chúng. Trí tuệ nhân tạo khác biệt cơ bản. Trí tuệ nhân tạo có khả năng tạo ra những ý tưởng hoàn toàn mới, văn hóa hoàn toàn mới.
Ban đầu, có lẽ trí tuệ nhân tạo sẽ bắt đầu bắt chước những mẫu người mà nó được đào tạo trong giai đoạn ban đầu. Nhưng qua mỗi năm trôi qua, văn hóa của trí tuệ nhân tạo sẽ đi tới những nơi mà con người chưa từng thử thách. Trong hàng ngàn năm, con người đã sống trong những giấc mơ của những con người khác. Trong những thập kỷ sắp tới, chúng ta có thể sẽ thấy mình sống trong những giấc mơ của một trí tuệ ngoài hành tinh.
Nỗi sợ hãi về trí tuệ nhân tạo chỉ ám ảnh con người trong vài thập kỷ gần đây. Nhưng suốt hàng ngàn năm, con người đã bị ám ảnh bởi một nỗi sợ hãi sâu sắc hơn nhiều. Chúng ta luôn thấy sức mạnh của câu chuyện và hình ảnh để chi phối tâm trí của chúng ta và tạo ra những ảo tưởng. Do đó, từ thời cổ đại, con người đã sợ bị mắc kẹt trong một thế giới của những ảo ảnh.
Vào thế kỷ 17, René Descartes lo sợ rằng có thể có một con quỷ độc ác đang mắc kẹt anh ta trong một thế giới của ảo ảnh, tạo ra mọi thứ anh ta thấy và nghe thấy. Ở Hy Lạp cổ đại, Plato đã kể câu chuyện nổi tiếng về Ngụy tượng hang động, trong đó một nhóm người bị trói trong một hang động suốt đời, đối diện một tường trống. Một màn hình. Trên màn hình đó, họ thấy những bóng đổ đa dạng được chiếu ra. Những người tù nhầm lẫn những ảo tưởng họ thấy ở đó là hiện thực.
Nỗi sợ hãi về trí tuệ nhân tạo chỉ ám ảnh con người trong vài thập kỷ gần đây. Nhưng suốt hàng ngàn năm, con người đã bị ám ảnh bởi một nỗi sợ hãi sâu sắc hơn nhiều. Chúng ta luôn thấy sức mạnh của câu chuyện và hình ảnh để chi phối tâm trí của chúng ta và tạo ra những ảo tưởng. Do đó, từ thời cổ đại, con người đã sợ bị mắc kẹt trong một thế giới của những ảo tưởng.
Vào thế kỷ 17, René Descartes lo sợ rằng có thể có một con quỷ độc ác đang mắc kẹt anh ta trong một thế giới của ảo tưởng, tạo ra mọi thứ anh ta thấy và nghe thấy. Ở Hy Lạp cổ đại, Plato đã kể câu chuyện nổi tiếng về Ngụy tượng hang động, trong đó một nhóm người bị trói trong một hang động suốt đời, đối diện một tường trống. Một màn hình. Trên màn hình đó, họ thấy những bóng đổ đa dạng được chiếu ra. Những người tù nhầm lẫn những ảo tưởng họ thấy ở đó là hiện thực.
Ở Ấn Độ cổ đại, các nhà thần học Phật giáo và Hindu đã chỉ ra rằng tất cả con người sống bị mắc kẹt bên trong Maya – thế giới của ảo tưởng. Những gì chúng ta thường coi là hiện thực thường chỉ là hư cấu trong tâm trí của chúng ta. Con người có thể tham gia vào cả cuộc chiến tranh, giết người khác và sẵn sàng chấp nhận chết vì niềm tin vào những ảo tưởng này hay khác.
Cuộc cách mạng AI đang đặt chúng ta đối diện với ác quỷ của Descartes, với hang động của Plato, với thế giới Maya. Nếu chúng ta không thận trọng, chúng ta có thể bị mắc kẹt sau màn bức màn của những ảo tưởng, mà chúng ta không thể xé rách đi — hoặc thậm chí không nhận ra rằng nó tồn tại.
Tất nhiên, sức mạnh mới của trí tuệ nhân tạo cũng có thể được sử dụng cho mục đích tốt. Tôi sẽ không lặp đi lặp lại về điều này, vì những người phát triển trí tuệ nhân tạo đã nói đủ nhiều về nó. Nhiệm vụ của các nhà sử học và triết gia như tôi là chỉ ra những nguy cơ. Tuy nhiên, chắc chắn rằng trí tuệ nhân tạo có thể giúp chúng ta trong vô số cách, từ tìm ra phương pháp chữa bệnh mới cho ung thư đến khám phá giải pháp cho khủng hoảng sinh thái. Câu hỏi chúng ta đối diện là làm thế nào để đảm bảo rằng các công cụ trí tuệ nhân tạo mới được sử dụng cho mục đích tốt hơn là xấu. Để làm được điều đó, trước hết chúng ta cần hiểu rõ khả năng thực sự của những công cụ này.
Từ năm 1945, chúng ta đã biết rằng công nghệ hạt nhân có thể tạo ra năng lượng rẻ tiền với lợi ích cho con người — nhưng cũng có thể phá hủy về mặt vật lí nền văn minh nhân loại. Do đó, chúng ta đã tái tạo lại toàn bộ trật tự quốc tế để bảo vệ nhân loại và đảm bảo rằng công nghệ hạt nhân được sử dụng chủ yếu cho mục đích tốt. Bây giờ chúng ta phải đối mặt với một loại vũ khí sát thương hàng loạt mới có thể tiêu diệt thế giới tâm lý và xã hội của chúng ta.
Chúng ta vẫn có thể quản lý các công cụ trí tuệ nhân tạo mới, nhưng chúng ta phải hành động nhanh chóng. Trong khi vũ khí hạt nhân không thể phát minh ra những vũ khí hạt nhân mạnh hơn, trí tuệ nhân tạo có thể tạo ra trí tuệ nhân tạo mạnh mẽ hơn theo cấp số nhân. Bước quan trọng đầu tiên là yêu cầu kiểm tra an toàn nghiêm ngặt trước khi các công cụ trí tuệ nhân tạo mạnh mẽ được phát hành vào miền công chúng. Giống như một công ty dược phẩm không thể phát hành các loại thuốc mới trước khi kiểm tra cả tác động phụ ngắn hạn và dài hạn của chúng, các công ty công nghệ cũng không nên phát hành các công cụ trí tuệ nhân tạo mới trước khi đảm bảo rằng chúng an toàn. Chúng ta cần một cơ quan tương đương của Cục Quản lý Thực phẩm và Dược phẩm cho công nghệ mới, và chúng ta cần nó ngay từ hôm qua.
Không phải việc làm chậm lại việc triển khai công cụ trí tuệ nhân tạo trong xã hội sẽ làm cho các chế độ dân chủ bị tụt lại phía sau các chế độ độc tài tàn bạo? Ngược lại, triển khai trí tuệ nhân tạo mà không có quy định sẽ tạo ra hỗn loạn xã hội, điều này sẽ có lợi cho những kẻ độc tài và làm hủy hoại những nền dân chủ. Dân chủ là một cuộc trò chuyện, và cuộc trò chuyện dựa trên ngôn ngữ. Khi trí tuệ nhân tạo xâm nhập vào ngôn ngữ, nó có thể phá hủy khả năng của chúng ta trong việc thực hiện các cuộc trò chuyện có ý nghĩa, từ đó hủy hoại hệ thống dân chủ.
Chúng ta vừa mới chạm trán với một trí tuệ ngoài hành tinh, ngay trên Trái Đất. Chúng ta không biết nhiều về nó, trừ việc nó có thể phá hủy nền văn minh của chúng ta. Chúng ta nên dừng lại việc triển khai không đảm bảo của các công cụ trí tuệ nhân tạo trong khảo sát công cộng và quy định trí tuệ nhân tạo trước khi nó quản lý chúng ta. Và quy định đầu tiên mà tôi muốn đề xuất là làm cho việc tiết lộ rằng một người đang trò chuyện với một trí tuệ nhân tạo trở nên bắt buộc. Nếu tôi đang trò chuyện với ai đó và không thể biết liệu đó là con người hay một trí tuệ nhân tạo – đó chính là sự kết thúc của nền dân chủ.
Đoạn văn này đã được tạo ra bởi một con người.
Hoặc có phải là không?
———————————-
Yuval Noah Harari là một nhà sử học, triết gia và tác giả của "Sapiens", "Homo Deus" và bộ truyện dành cho trẻ em "Unstoppable Us". Anh là giảng viên tại khoa lịch sử Đại học Hebrew ở Jerusalem và là đồng sáng lập của Sapienship, một công ty ảnh hưởng xã hội.