AI nguy hiểm không kém vũ khí hạt nhân hay đại dịch?

(ĐTTCO) - "Giảm thiểu nguy cơ tuyệt chủng do AI phải là ưu tiên toàn cầu, bên cạnh những rủi ro ở quy mô xã hội khác như đại dịch hay chiến tranh hạt nhân".
Minh họa về AI thống trị hay hỗ trợ con người. Ảnh: Washington Post.
Minh họa về AI thống trị hay hỗ trợ con người. Ảnh: Washington Post.

Đây là thông báo do Trung tâm An toàn AI (CAIS) tại San Francisco đăng trên website ngày 30-5.

Deepfake - mối nguy hiểm lớn nhất

Chủ tịch Microsoft Brad Smith cho rằng deepfake, công nghệ tạo video và hình ảnh giả mạo trông như thật, là mối nguy hiểm lớn nhất của AI hiện nay.

Phát biểu tại một sự kiện ở Washington tuần này, ông Smith nói mối quan tâm lớn của ông là sự gia tăng của nội dung deepfake trong việc bắt chước và mạo danh ngoại hình và giọng nói của người khác.

"Chúng ta phải giải quyết các vấn đề xoay quanh deepfake. Cần thực hiện các bước chống lại việc thay đổi nội dung hợp pháp để lừa gạt thông qua AI" -Chủ tịch Microsoft khẳng định.

Deepfake là thuật ngữ chỉ sự kết hợp giữa deep learning (học sâu) và fake (giả), trong đó AI được sử dụng để phân tích cử chỉ, nét mặt, giọng nói của một người, từ đó tái tạo và chỉnh sửa để cho ra đời ảnh hoặc video như thật.

Công nghệ này đã xuất hiện từ nhiều năm. Tuy nhiên, cơn sốt AI tạo sinh - mô hình AI có thể sáng tác và sinh ra nội dung như ảnh, video, mã code, văn bản - khiến deepfake càng lan nhanh hơn.

Việc các công cụ này bị lợi dụng để tiến hành các chiến dịch phát tán thông tin sai lệch đang trở thành nỗi lo đối với các cơ quan quản lý.

Hồi tháng 3, Midjourney được sử dụng để tạo ảnh cựu tổng thống Mỹ Donald Trump bị bắt, hay Giáo hoàng Francis mặc áo trắng thời trang. Hai bức ảnh được chia sẻ rầm rộ trên mạng xã hội với đa số người dùng tin là thật.

Ảnh ông Trump bị bắt do Midjourney tạo ra và có hàng triệu lượt xem chỉ trong vài phút.

Ảnh ông Trump bị bắt do Midjourney tạo ra và có hàng triệu lượt xem chỉ trong vài phút.

AI tổng hợp (AGI) còn khủng khiếp hơn

Trong cơn sốt AI, các chuyên gia đang lo ngại về một mô hình cao hơn là AI tổng hợp (AGI). Khảo sát của Đại học Stanford tháng trước cho thấy 56% nhà khoa học máy tính và nhà nghiên cứu tin AI tạo sinh sẽ bắt đầu chuyển dịch sang AGI trong tương lai gần.

Theo Fortune, AGI được đánh giá phức tạp hơn nhiều so với mô hình AI tạo sinh nhờ khả năng tự nhận thức những gì nó nói và làm. Về mặt lý thuyết, công nghệ này sẽ khiến con người phải lo sợ trong tương lai.

Cũng theo kết quả khảo sát, 58% chuyên gia AI đánh giá AGI là "mối quan tâm lớn", 36% nói công nghệ này có thể dẫn đến "thảm họa cấp hạt nhân".

Một số cho biết AGI có thể đại diện cho cái gọi là "điểm kỳ dị về công nghệ" - điểm giả định trong tương lai, khi máy móc vượt qua khả năng của con người theo cách không thể đảo ngược và có thể gây ra mối đe dọa cho nền văn minh.

"Sự tiến bộ về AI và các mô hình AGI vài năm qua thật đáng kinh ngạc. Tôi không thấy bất kỳ lý do nào khiến tiến độ đó chậm lại. Chúng ta chỉ còn khoảng vài năm, hoặc muộn nhất là 10 để chuẩn bị" - CEO DeepMind Hassabis nói.

Cần xây dựng bộ quy tắc chung về AI

Cuối tháng 3, hơn 1.000 người, được xem là "giới tinh hoa" trong lĩnh vực công nghệ, như tỷ phú Elon Musk, nhà đồng sáng lập Apple Steve Wozniak, đã ký vào bức thư kêu gọi các công ty, tổ chức toàn cầu ngừng cuộc đua siêu AI trong 6 tháng để cùng xây dựng một bộ quy tắc chung về công nghệ này.

Giữa tháng 4, CEO Google Sundar Pichai nói AI khiến ông mất ngủ nhiều đêm vì nó có thể gây nguy hiểm hơn bất kỳ thứ gì con người từng thấy, trong khi xã hội chưa sẵn sàng cho sự phát triển nhanh chóng của AI.

"Nó có thể là thảm họa nếu triển khai sai. Một ngày nào đó, AI sẽ có những khả năng vượt xa trí tưởng tượng của con người và chúng ta chưa thể hình dung hết những điều tồi tệ nhất có thể xảy ra", ông nói với CBS.

Tương tự, Sam Altmam, người đồng sáng lập và CEO của OpenAI, cho rằng AI có thể mang lại lợi ích to lớn, nhưng gây nỗi lo về thông tin sai lệch, cú sốc kinh tế, hoặc thứ gì đó "ở mức độ vượt xa bất cứ những gì con người đã chuẩn bị". Ông liên tục nhắc đến cảm giác lo lắng về AI và thừa nhận đã sốc vì ChatGPT quá phổ biến.

Mới đây nhất, 350 lãnh đạo và chuyên gia đầu ngành AI cũng nhất trí ký vào thông điệp cảnh báo về mối đe dọa của AI.

Trước đó vài ngày, trong phiên điều trần trước Quốc hội Mỹ ngày 16-5, Sam Altman, CEO của OpenAI, cho rằng AI tạo là sự tiến bộ, nhưng có thể trở thành hiểm họa nếu rơi vào tay kẻ xấu.

"AI có thể đi chệch hướng, tạo sai lầm và gây hại đáng kể cho thế giới nếu không được điều chỉnh hợp lý" - Sam Altman nó và mong muốn hợp tác với chính phủ để ngăn chặn các kịch bản xấu trong tương lai, thúc đẩy việc thành lập một cơ quan giám sát công nghệ này.

Sam Altman cũng kêu gọi những công ty đang phát triển AI công khai mô hình và dữ liệu cơ bản. Người tạo AI phải có giấy phép hoạt động hoặc chứng minh được sự an toàn của sản phẩm trước khi phát hành ra công chúng. Các mô hình AI cũng cần được kiểm toán độc lập.

Trong khi đó, Brad Smith nói người dùng cần được hướng dẫn để nhận biết nội dung từ AI, như gắn nhãn thông báo khi xuất hiện ảnh và video được tạo ra bởi trí tuệ nhân tạo.

Chủ tịch Microsoft cũng đề xuất Mỹ phải thắt chặt quy định về việc xuất khẩu nhằm ngăn chặn mô hình AI có thể rơi vào tay các bên thứ ba.

Sam Altman, CEO Open AI trong phiên điều trần trước quốc hội Mỹ hôm 16/5. Ảnh: Bloomberg

Sam Altman, CEO Open AI trong phiên điều trần trước quốc hội Mỹ hôm 16/5. Ảnh: Bloomberg

Tranh cãi về khả năng AI

Tuy nhiên, hiện giới công nghệ vẫn đang tranh cãi về khả năng AI vượt qua con người và hủy diệt nhân loại, điều vốn xuất hiện trong phim viễn tưởng.

Theo đó, nhiều chuyên gia cho rằng nguy cơ AI vượt qua con người và độc chiếm thế giới đang chuyển dịch từ tiểu thuyết viễn tưởng sang truyền thông đại chúng, gây chia rẽ trong lòng Thung lũng Silicon và với ngay cả những người đang thúc đẩy ứng dụng AI vào cuộc sống.

Nhiều nhà nghiên cứu và kỹ sư cũng bày tỏ sự xuất hiện của AI sát thủ với khả năng tiêu diệt con người chỉ là mối lo sợ không dựa trên cơ sở thực tế.

Thậm chí, một số chuyên gia tại Thung lũng Sillicon cho rằng công chúng không cần lo về việc AI vượt qua con người và thâu tóm thế giới.

"Nên tập trung vào những mối đe dọa hiện tại, thay vì chạy theo những lo ngại về tính sống còn của loài người" - Sara Hooker, Giám đốc phòng nghiên cứu của startup Cohere chuyên về AI, nêu quan điểm.

Theo bà, nguy cơ ngay trước mắt là AI được huấn luyện dựa trên thông tin mang tính phân biệt chủng tộc và giới tính, cũng như thường xuyên đưa ra tin tức sai lệch và coi đó là đúng đắn.

Tại phiên điều trần ngày 16-5 trước Quốc hội Mỹ về những rủi ro AI có thể gây ra, những người tham gia nhận định sẽ khó ngăn được sự bùng nổ về AI. Các công ty, nhà đầu tư đang đổ hàng tỷ USD vào công nghệ này.

"Sẽ không có đợt tạm dừng nào. Không cơ quan thực thi nào có thể dừng tiến trình phát triển của AI" - thượng nghị sĩ Cory Booker nói.

Các tin khác