AI 'bịa' dữ liệu: Khi công nghệ vượt khỏi tầm kiểm soát

(ĐTTCO) - Vụ bê bối liên quan đến Deloitte (kiểm toán đa quốc gia) của Australia, và báo cáo tư vấn 237 trang gửi Bộ Việc làm và Quan hệ Nơi làm việc Australia (DEWR), đang trở thành một trong những ví dụ điển hình nhất về rủi ro của trí tuệ nhân tạo (AI) trong môi trường chuyên nghiệp.

Trí tuệ ảo và thông tin ảo

Tháng 7-2025, Deloitte nộp báo cáo trị giá 440.000 AUD (khoảng 290.000 USD) cho DEWR. Mọi chuyện tưởng chừng êm đềm cho đến khi nhà nghiên cứu Chris Rudge, Đại học Sydney, phát hiện ra hàng loạt trích dẫn “ma” trong bản tài liệu này, từ các phán quyết tòa án bị ghi sai, đến những tài liệu học thuật không hề tồn tại.

Bộ DEWR xác nhận lỗi, yêu cầu sửa và Deloitte buộc phải công bố rằng quá trình biên soạn có sử dụng Azure OpenAI (GPT-4o), một công cụ tạo sinh tương tự ChatGPT. Phiên bản “sửa lỗi” được cập nhật âm thầm vào cuối tháng 9, xóa bỏ các trích dẫn giả mạo, trong đó có cả một trích dẫn bị cho là do “AI bịa” từ lời một thẩm phán liên bang.

Sự cố này phơi bày một lỗ hổng ngày càng rõ, đó là hiện tượng “hallucination” - mô hình AI tạo ra thông tin trông hợp lý, có cấu trúc, nhưng hoàn toàn không có thật. Trong trường hợp của Deloitte về vấn đề này, có những đoạn văn mượt mà, trích dẫn có định dạng chuẩn học thuật, đã qua mắt được nhiều tầng kiểm duyệt trước khi gửi tới cơ quan chính phủ.

Deloitte khẳng định lỗi này không ảnh hưởng đến “phát hiện và khuyến nghị chính” của báo cáo, nhưng điều đó khó xoa dịu công chúng, khi ủy thác tri thức bị giao phó cho một công cụ thiếu khả năng tự kiểm chứng.

Khi công nghệ được triển khai quá nhanh, vượt khỏi khả năng kiểm soát và kiểm chứng, hậu quả không chỉ là một bản báo cáo sai lệch, mà còn là cú đánh trực diện vào niềm tin của nhà đầu tư đối với những tên tuổi vốn được xem là “đỉnh cao uy tín” của ngành tư vấn toàn cầu.

Hợp lý nhưng không hợp pháp?

Thực tế, đây không phải trường hợp cá biệt. Tại Mỹ, đã chứng kiến nhiều vụ luật sư bị tòa án phạt tiền vì nộp hồ sơ có trích dẫn do ChatGPT “sáng tác”. Năm 2023, một thẩm phán liên bang ở Manhattan, phải ra phán quyết trừng phạt 2 luật sư vì sử dụng “án lệ giả mạo”, dẫn đến việc các bang buộc giới hành nghề phải công khai khi nào họ dùng AI trong soạn thảo hồ sơ pháp lý.

Trong học thuật, các tạp chí quốc tế buộc phải thu hồi bài nghiên cứu khi phát hiện hàng chục tài liệu tham khảo không thể truy xuất, như trường hợp PLoS One (tháng 3-2024). Và trong chính trị, cựu luật sư của Donald Trump, Michael Cohen, cũng từng vô tình nộp hồ sơ có trích dẫn do Google Bard tạo ra.

Căn nguyên nằm ở bản chất của các mô hình ngôn ngữ lớn (LLM), chúng “dự đoán chuỗi từ hợp lý” chứ không thực sự hiểu đúng hay sai. Khi người dùng yêu cầu trích dẫn, AI có thể tạo ra tiêu đề, tên tác giả và năm xuất bản trông hoàn hảo, nhưng chỉ là sản phẩm của xác suất ngôn ngữ.

Không có cơ chế nhận thức hay cơ sở dữ liệu thực chứng nào đứng sau, nếu người vận hành không yêu cầu xác minh độc lập. Deloitte cũng như nhiều tổ chức khác, đã rơi vào “vùng xám” giữa đổi mới công nghệ và quy trình kiểm duyệt con người.

Và hậu quả này đã vượt xa phạm vi học thuật. Thứ nhất, uy tín của Deloitte bị tổn thương nghiêm trọng, khi chính các nghị sĩ Úc yêu cầu công ty hoàn trả toàn bộ hợp đồng, cho rằng “đây là lỗi mà sinh viên năm nhất đại học cũng không được phép mắc phải”.

Thứ hai, vụ việc mở ra tranh luận pháp lý mới về trách nhiệm khi AI tham gia quy trình tư vấn công: ai chịu trách nhiệm nếu dữ liệu do AI tạo dẫn đến khuyến nghị sai hoặc thiệt hại chính sách?

Thứ ba, các cơ quan quản lý như Hội đồng Báo cáo Tài chính Anh (FRC), đang thúc ép các “Big Four” ngành kiểm toán phải chứng minh cách họ giám sát việc dùng AI, đồng thời công bố hướng dẫn đầu tiên về chuẩn kiểm toán khi có yếu tố trí tuệ nhân tạo.

Cần kiểm duyệt từ con người

Trước những biến động này, các chuyên gia cho rằng một khung quản trị “AI có trách nhiệm” là điều cấp bách. Doanh nghiệp cần công khai công cụ AI đã sử dụng trong mọi hợp đồng, kèm điều khoản kiểm chứng bắt buộc.

Các tài liệu pháp lý, học thuật, hay chính sách công phải trải qua vòng xác minh độc lập bởi chuyên gia. Đồng thời, nhân viên cần được huấn luyện về rủi ro “hallucination” và kỹ năng truy xuất nguồn chính xác.

Deloitte hiện đã bắt đầu hợp tác với Anthropic để đưa hệ thống Claude vào hỗ trợ nội bộ cho 470.000 nhân sự, nhưng vụ việc này cho thấy đào tạo chỉ là bước đầu, quan trọng là giám sát và kiểm định từ con người mới là yếu tố sống còn.

Công nghệ luôn đi nhanh hơn khuôn khổ quản lý, nhưng điều đó không thể là lý do cho sự dễ dãi. Trí tuệ nhân tạo đang mở ra thời kỳ tăng năng suất chưa từng có, song nếu không đi kèm cơ chế kiểm chứng và trách nhiệm pháp lý rõ ràng, “sức mạnh tạo sinh” của AI sẽ trở thành con dao hai lưỡi, làm lung lay nền tảng niềm tin vào cả giới chuyên môn lẫn thể chế.

Vụ của gã khổng lồ toàn cầu Deloitte có lẽ sẽ được nhớ như bài học đầu tiên của kỷ nguyên mới: Đổi mới là cần thiết, nhưng niềm tin thì không được phép đánh cược.

Các chuyên gia cho rằng một khung quản trị “AI có trách nhiệm” là điều cấp bách. Doanh nghiệp cần công khai công cụ AI đã sử dụng trong mọi hợp đồng, kèm điều khoản kiểm chứng bắt buộc.

Các tin khác