Thấy cũng không thể tin
Sự phát triển nhanh chóng của AI cũng đã thổi bùng lên công nghệ dùng để “lừa người” khó phân định thật giả. Những tiến bộ đã thúc đẩy thông tin sai lệch và được sử dụng để gây chia rẽ chính trị. Các chính phủ độc tài đã tạo ra các bản tin truyền hình có vẻ giống thực để thúc đẩy các mục tiêu chính trị của họ.
Tháng trước, nhiều người đã rất thích thú trước những hình ảnh cho thấy Giáo hoàng Francis mặc chiếc áo khoác phồng của Balenciaga, trong khi lại đau buồn với hình ảnh một trận động đất tàn phá vùng Tây Bắc Thái Bình Dương. Tuy nhiên, cả 2 sự kiện đó đều không xảy ra. Các hình ảnh đã được tạo bằng Midjourney, một trình tạo hình ảnh phổ biến.
Vào ngày 3-4, khi ông Donald J. Trump đến văn phòng luật sư quận Manhattan để đối mặt với các cáo buộc hình sự, những hình ảnh do AI tạo ra đã xuất hiện trên Reddit, cho thấy nam diễn viên Bill Murray làm Tổng thống trong Nhà Trắng. Một hình ảnh khác cho thấy ông Trump diễu hành trước đám đông lớn với cờ Mỹ ở phía sau đã nhanh chóng được chia sẻ lại trên Twitter.
Các chuyên gia lo ngại công nghệ này có thể đẩy nhanh sự xói mòn niềm tin vào truyền thông, chính phủ và xã hội. Nếu bất kỳ hình ảnh nào cũng có thể được tạo ra và bị thao túng, làm sao chúng ta có thể tin vào những điều chúng ta nhìn thấy? Wasim Khaled, CEO của Blackbird.AI - một công ty trợ giúp chống tin giả, cho biết: “Các công cụ sẽ trở nên tốt hơn, rẻ hơn và sẽ có ngày bạn không thể tin được điều gì bạn thấy trên internet”.
Mặc dù xác suất AI ban đầu tạo ra hình ảnh hoàn hảo như thực rất ít. Trong đó, lỗi thường xuất hiện ở bàn tay, với rất nhiều ngón tay hoặc nhìn không tự nhiên. Trong những bức hình Giáo hoàng, điểm không thực là cặp kính dường như tan chảy vào má và những ngón tay mờ ảo… Tuy nhiên, những tiến bộ nhanh chóng trong công nghệ đang loại bỏ nhiều sai sót đó. Phiên bản mới nhất của Midjourney, được phát hành vào tháng 3, có thể vẽ những bàn tay rất giống thực.
Vài ngày trước, khi ông Trump tự ra đầu thú để đối mặt với cáo buộc hình sự ở New York, những hình ảnh về vụ “bắt giữ” ông đã lan truyền trên mạng xã hội. Chúng được tạo ra bởi Eliot Higgins, nhà báo người Anh và là người sáng lập Bellingcat, một tổ chức điều tra nguồn mở. Anh đã sử dụng Midjourney để tưởng tượng cảnh cựu tổng thống bị bắt giữ, xét xử, bỏ tù trong bộ áo liền quần màu cam và trốn thoát qua một đường cống. Anh đã đăng những hình ảnh lên Twitter, với ghi chú rõ chúng là những tác phẩm sáng tạo.
Trợ thủ của công nghiệp khiêu dâm
AI cũng có thể làm cho video giả mạo dễ sản xuất hơn, và điều này có thể bị lợi dụng để bêu xấu một nhân vật nổi tiếng, hoặc thậm chí tạo ra các video khiêu dâm giả mạo với nhân vật chính là những người có danh tiếng trong xã hội. Nội dung khiêu dâm được tạo bằng công nghệ này lần đầu tiên lan truyền trên internet vài năm trước, khi một người dùng Reddit chia sẻ các clip đặt khuôn mặt của những phụ nữ nổi tiếng lên đầu của các diễn viên khiêu dâm.
Kể từ đó, những người tạo Deep fake đã phổ biến các video và hình ảnh tương tự nhắm mục tiêu đến những người có ảnh hưởng trực tuyến, nhà báo và những người có ảnh hưởng khác. Hàng ngàn video như vậy hiện đang tồn tại trên rất nhiều trang web.
Và với công nghệ AI hiện nay, về cơ bản cho phép bất kỳ ai biến bất kỳ ai họ muốn mà không cần sự đồng ý của người đó, hoặc sử dụng công nghệ này để làm hại bạn tình cũ. Noelle Martin ở Perth, Australia, đã trải nghiệm thực tế đó. Cô gái 28 tuổi đã tìm thấy deepfake khiêu dâm của chính mình 10 năm trước, khi một ngày nọ vì tò mò cô đã sử dụng Google để tìm kiếm hình ảnh của chính mình.
Martin nói rằng cô ấy không biết ai đã tạo ra những hình ảnh và video khiêu dâm giả mạo cô. Quá kinh hoàng, Martin đã liên hệ với các trang web khác nhau trong nhiều năm nhằm nỗ lực gỡ bỏ những hình ảnh đó. Một số không trả lời, một số đã gỡ nó xuống nhưng sau đó chúng lại xuất hiện ở những nơi khác. “Bạn không thể thắng. Đây là thứ sẽ luôn ở ngoài đó. Nó giống như nó mãi mãi hủy hoại bạn” - Martin nói.
Cuối cùng, Martin chuyển sự chú ý của cô sang luật pháp, với luật phạt 555.000 đô la Úc (370.706USD) nếu họ không tuân thủ yêu cầu xóa đối với nội dung như vậy từ cơ quan quản lý an toàn trực tuyến. Nhưng việc quản lý internet gần như không thể, khi các quốc gia có luật riêng đối với nội dung internet.
Điều may mắn là một số mô hình AI đã hành động. OpenAI cho biết đã xóa nội dung khiêu dâm khỏi dữ liệu được sử dụng để đào tạo công cụ tạo hình ảnh DALL-E, điều này hạn chế khả năng người dùng tạo các loại hình ảnh đó.
Hiện phiên bản mới Midjourney cũng chặn việc sử dụng một số từ khóa nhất định, và khuyến khích người dùng gắn cờ các hình ảnh có vấn đề cho người kiểm duyệt. Trong khi đó, công ty khởi nghiệp Stability AI đã tung ra một bản cập nhật vào tháng 11-2022, loại bỏ khả năng tạo hình ảnh tục tĩu bằng cách sử dụng trình tạo hình ảnh Stable Diffusion của nó.
Những thay đổi này xuất hiện sau các báo cáo rằng một số người dùng đang tạo ra những bức ảnh khỏa thân lấy cảm hứng từ người nổi tiếng bằng công nghệ này.
Những người tạo Deep fake đã phổ biến các video và hình ảnh tương tự nhắm mục tiêu đến những người có ảnh hưởng trực tuyến, nhà báo và những người có ảnh hưởng khác. Hàng ngàn video như vậy hiện đang tồn tại trên rất nhiều trang web.