(II) Geoffrey Hinton và Lời cảnh báo

by , under Uncategorized

GEOFFREY HINTON GỬI LỜI CẢNH BÁO

Trí tuệ nhân tạo là mối đe dọa hiện hữu đối với nhân loại

— Geoffrey Hinton

Geoffrey Hinton (trái) nghiên cứu nhiều năm AI. Giờ ông cảnh báo những nguy cơ của nó.

 

Bản dịch từ báo Neue Zürcher Zeitung (NZZ)Thụy Sỹ.

Ngày 02.05.2023,

Người dịch: T. A.T. (Berlin)

Xem lại: Nguyễn Xuân Xanh

Xem tiếp bài trước:

(I) Geoffrey Hinton, Cha đỡ đầu của trí tuệ nhân tạo và Con đường đến giải Nobel

(I) Geoffrey Hinton, Cha đỡ đầu của trí tuệ nhân tạo và Con đường đến giải Nobel

Lời nói đầu

Thế giới đang đứng trước vực thẳm: Thời kỳ phá hủy lý tính, Zerstörung der Vernunft, khái niệm của một nhà Má-xít (Georg Lukács) đầu thế kỷ XX. Cuối thế kỷ XIX, đầu XX, châu Âu đang “hồ hởi” vì công nghệ, khoa học đã phát triển lên đỉnh cao, thương mại phát triển vượt bậc, đem lại phồn vinh, hạnh phúc, như mọi người tưởng, nghĩ rằng qua rồi cái thời chiến tranh giành đất khi công nghiệp, khoa học, công nghệ đã có thể làm giàu quốc gia. Thế rồi châu Âu, cái nôi văn minh hiện đại của nhân loại bỗng dưng rơi vào vực thẳm của hai cuộc chiến tranh tàn khốc liên tiếp, hoàn toàn đi ngược chờ đợi ủa mọi người. Có người lúc đó, dựa vào nguyên lý bất định của cơ học lượng tử hỏi Albert Einstein, có phải rằng thế giới chúng ta cũng đang diễn ra bất định như vật lý hay không? Einstein trả lời, không, thế giới chúng ta vẫn đang diễn ra đúng với “quy luật cổ điển”.

Ngày nay, thế giới đang đứng trước sự hủy hoại lý tính và nguy cơ của một Thế chiến thứ ba. Các công nghệ mới phát triển từ Thung lũng Silicon bị các thế lực passionate đen tối sử dụng để phá hủy lý tính bình thường của con người nhằm phục vụ cho các quyền lợi đen tối của họ. Đặc biệt công nghệ trí tuệ nhân tạo có sức mạnh khủng khiếp, có thể phục vụ đắc lực cho con người nhưng cũng có thể trong những bàn tay ác quỷ sẽ có nguy cơ tiêu diệt nhân loại. Mươn câu nói của nhà triết học Đức Georg Simmel, “Có lẽ trong cuộc sống hiện tại của chúng ta có quá nhiều cái Tôi, mặt khác quá nhiều Cơ giới, nhưng không phải là sự sống thuần khiết”. Ngày nay có thể lắm “có quá nhiều máy móc, và ít đi nhân tính”. Nhà văn Nhật Bản giải Nobel Văn chương 2017 Kazuo Ishiguro cũng từng viết: “Điều đáng lo ngại nhất về tương lai không phải là những cổ máy như Klara (đọc: AI) ngày càng trở nên giống con người, mà đó là con người ngày càng trở nên giống máy móc.”

Xin mời anh chị nghe những cảnh báo và lời giải thích của nhà khoa học Geoffrey Hinton, được xem “bố già” của AI, trước tính hai lưỡi cực kỳ nguy hiểm của công nghệ AI. Cảm ơn bạn T.A.T. ở nơi xa xôi đã xung phong đảm nhiệm việc dịch.

Nguyễn Xuân Xanh

 

⭐ ⭐ ⭐

“Bố già AI”: Geoffrey Hinton đã từ chức tại Google và hiện nay đang cảnh báo về những mối nguy hiểm mà trí tuệ nhân tạo (AI) có thể sẽ mang lại.

Ông là người đã giúp AI đạt được những bước đột phá. Giờ đây, Geoffrey Hinton lo ngại rằng các chatbot như GPT-4 có thể sẽ gây ra những tác hại nghiêm trọng. 

Khoảng một thập kỷ trước, Geoffrey Hinton đã thay đổi cách máy móc nhìn thế giới. Cùng với hai nghiên cứu sinh tiến sĩ tại Đại học Toronto, nơi ông từng đảm nhiệm chức giáo sư, ông đã phát triển một mạng nơ-ron có khả năng phân tích hàng ngàn bức ảnh cũng như khả năng tự học cách nhận diện các vật thể như hoa hoặc ô tô. Và điều này được thực hiện với một độ chính xác mà cho đến thời điểm đó dường như không máy móc nào có thể đạt đến.

Chỉ trong một thời gian ngắn sau đó, công ty mà Hinton cùng hai nghiên cứu sinh thành lập đã được Google mua lại với giá 44 triệu đô-la. Kể từ đó, nhà tâm lý học nhận thức và nhà khoa học máy tính này – năm nay đã 75 tuổi – đã làm việc tại một tập đoàn công nghệ và trở thành một trong những khuôn mặt nổi bật nhất trong lĩnh vực này. Năm 2018, ông và hai đồng nghiệp lâu năm đã nhận được Giải thưởng Turing, được xem là giải Nobel của ngành tin học.

Đầu tuần này (tháng 5, 2023), Hinton – người thường được gọi là “Godfather”, tức là một kiểu “bố già” – của trí tuệ nhân tạo, đã tuyên bố trên tờ “New York Times”, rời khỏi Google. Ông cho biết, tuổi tác của mình cũng có một vai trò nhất định trong việc rút lui này, nhưng ông cũng muốn có thể được tự do trong tương lai để phát biểu về những mối nguy hiểm của AI.

Trong cuộc phỏng vấn của đài BBC ngay sau đó, ông mô tả các chatbot AI là “khá nguy hiểm”. Ông nói: “Theo đánh giá của tôi thì hiện tại chúng chưa thông minh hơn chúng ta, nhưng tôi nghĩ rằng chúng có thể sẽ sớm đạt được điều đó.”

 

Lo ngại về ảnh giả và rô-bốt sát thủ

Trước mắt, điều khiến cho Hinton lo ngại hơn hết là internet có thể sẽ bị tràn ngập bởi các hình ảnh, video và văn bản giả mạo, khiến cho một người sử dụng mạng bình thường sẽ không còn có thể phân biệt được đâu là thật, đâu là giả. Ông lo sợ rằng AI sẽ làm đảo lộn thị trường lao động – và những người làm các công việc it có thay đổi thường  nhật như trợ lý luật sư hoặc dịch giả có thể sẽ bị mất việc.

Hilton nói: Các biến thể công nghệ trong tương lai thậm chí có thể trở thành mối đe dọa cho nhân loại, vì chúng thường rút ra những hành vi không ai ngờ đến từ khối lượng lớn dữ liệu mà chúng phân tích,. Điều này sẽ thực sự trở thành vấn đề, nếu các công ty cho phép AI không chỉ tự tạo ra mã máy tính mà còn có thể tự tung tự tác trong việc áp dụng chúng. Ông lo ngại rằng một ngày nào đó, các hệ thống vũ khí thực sự có tính tự chủ – tức là các rô-bốt sát thủ – sẽ trở thành hiện thực.

Chính bản thân Hinton đã góp phần vào việc làm cho AI trở nên mạnh mẽ đến mức giờ đây ông phải lên tiếng cảnh báo về nó. Nghiên cứu có khả năng mở ra những hướng đi mới của ông trong lĩnh vực mạng nơ-ron và học sâu (Deep Learning) đã đặt nền tảng cho các chatbot tạo sinh (generative) như GPT-4, chúng hiện đang kích thích toàn thế giới. Các mạng nơ-ron được xem như là những hệ thống của các thuật toán, chúng được mô phỏng theo cách mà não bộ của chúng ta hoạt động và học hỏi. Mạng nơ-ron cho phép AI học từ các tập dữ liệu lớn, điều mà người ta gọi là học sâu.

Mạng nơ-ron đã đồng hành cùng Hinton trong suốt sự nghiệp học thuật của ông. Năm 1972, khi còn là nghiên cứu sinh tại Đại học Edinburgh, Hinton đã khám phá ra niềm đam mê của mình đối với lĩnh vực này. Tám năm sau, ông chuyển sang Mỹ và trở thành giáo sư tại Đại học Carnegie Mellon ở Pittsburgh, bang Pennsylvania. Năm 1987, ông quyết định chuyển đến Toronto. Hinton cho biết lý do của việc ông chuyển qua Canada là vì ông không muốn nhận một khoản tiền nào từ Lầu Năm Góc. Phần lớn nghiên cứu AI ở Mỹ lúc đó được tài trợ bởi Bộ Quốc phòng Mỹ. Hinton luôn tỏ ra rất ngờ vực với những ý tưởng muốn đem AI vào ứng dụng trên các bãi chiến trường.

Năm 2012, ông đã đạt được bước đột phá với các hệ thống nơ-ron tại Toronto, điều cuối cùng đã đưa Hinton đến với Google. Ilya Sutskever, một trong những nghiên cứu sinh đã cộng tác với ông, sau này trở thành nhà khoa học trưởng của công ty Open AI, nơi Microsoft có cổ phần. Cả hai công ty đều thúc đẩy sự phát triển của các mạng nơ-ron của mình, chúng có khả năng xử lý một lượng dữ liệu ngày càng lớn. Hinton nhận ra ở đó một năng lực đầy hiệu quả, giúp máy móc có thể hiểu và tạo ra ngôn ngữ. Tuy nhiên, lúc đó ông nghĩ rằng năng lực đó vẫn còn thua xa cách con người xử lý ngôn ngữ.

 

Sự phát triển đã tăng tốc

Trong năm qua, ông đã thay đổi quan điểm của mình. Google và OpenAI đã cung cấp cho các chatbot của mình, Bard và Chat-GPT, ngày càng nhiều dữ liệu để xử lý, và Hinton đã đi đến kết luận rằng các hệ thống này đã vượt qua trí thông minh của con người ở một số khía cạnh. “Có lẽ những gì đang diễn ra trong các hệ thống này thực sự tốt hơn nhiều so với những gì đang diễn ra trong não bộ”, Hinton nói với báo “New York Times” như thế.

Trong một thời gian dài, Google đã rất thận trọng với các ứng dụng AI. Bây giờ điều đó đã thay đổi, Hinton nói. Sau khi Microsoft tích hợp công nghệ AI của Open AI vào công cụ tìm kiếm Bing của mình và làm giàu nó, một cuộc cạnh tranh đã nổ ra giữa hai công ty và hầu như không thể dừng lại nếu không có quy định toàn cầu. Triển vọng đó tuy nhiên ông đánh giá là rất thấp. Niềm hy vọng của ông là các nhà nghiên cứu sẽ hợp tác với nhau để tìm ra các phương thức kiểm soát công nghệ này.

Geoffrey Hinton không hoàn toàn đơn độc với những cảnh báo của mình về sự phát triển không được qui định của trí tuệ nhân tạo. Vào tháng 3 năm nay (2023), khoảng một nghìn người hoạt động trong lĩnh vực công nghệ đã cùng ký tên trong một bức thư ngỏ, kêu gọi tạm dừng việc đào tạo các hệ thống AI trong sáu tháng. Trong số những người ký tên có các nhân vật nổi tiếng như Elon Musk, Yuval Noah Harari và Yoshua Bengio, người đã nhận giải Turing cùng với Hinton vào năm 2018. Bản thân Hinton đã không ký tên vào bức thư này cũng như các lời kêu gọi tương tự khác. Ông bảo, ông không muốn chỉ trích công khai công ty cũ, nơi ông đã từng làm việc.

Khi được hỏi rằng ông có hối hận về “công trình để đời” của mình hay không? Ông trả lời rằng điều đó diễn ra trong “một phần” của con người ông. Nhưng rồi ông lại tự trấn an mình với cái lý do mà ta thường hay nghe thấy trong những lúc như vậy: “Nếu tôi không làm điều đó, thì cũng sẽ có người khác làm thôi.”

NZZ