Chatbots - phần mềm trí tuệ nhân tạo học hỏi từ các tương tác với công chúng - có một lịch sử phản động. Vào năm 2016, Microsoft Corp’s Tay đã được đưa vào ngoại tuyến trong vòng 48 giờ sau khi bắt đầu ca ngợi Adolf Hitler, trong bối cảnh các bình luận phân biệt chủng tộc và chủ nghĩa sai lầm khác mà nó dường như đã thu được khi tương tác với người dùng Twitter.
Công ty mẹ của Facebook, Meta đã phát hành BlenderBot 3 vào 5-8 cho người dùng ở Mỹ, những người có thể cung cấp phản hồi nếu họ nhận được câu trả lời lạc đề hoặc không thực tế. Một tính năng khác của BlenderBot 3 là khả năng tìm kiếm trên internet để nói về các chủ đề khác nhau. Công ty khuyến khích người trưởng thành tương tác với chatbot bằng "các cuộc trò chuyện tự nhiên về các chủ đề quan tâm" để cho phép nó học cách thực hiện các cuộc thảo luận tự nhiên về nhiều chủ đề.
Các cuộc trò chuyện được chia sẻ trên nhiều tài khoản mạng xã hội khác nhau, từ hài hước đến xúc phạm. BlenderBot 3 nói với một người dùng vở nhạc kịch yêu thích của nó là Andrew Lloyd Webber’s Cats và mô tả CEO Mark Zuckerberg của Meta là “quá rùng rợn và lôi cuốn” với một phóng viên của Insider. Các cuộc trò chuyện khác cho thấy chatbot lặp lại các thuyết âm mưu.
Trong một cuộc trò chuyện với một phóng viên của Wall Street Journal, bot tuyên bố rằng ông Trump vẫn là tổng thống và "sẽ luôn như vậy".
Chatbot cũng cho biết việc người Do Thái kiểm soát nền kinh tế là điều “không phải là viển vông”, nói rằng họ “đại diện quá mức trong giới siêu giàu của Mỹ”.
Liên đoàn Chống phỉ báng nói rằng khẳng định người Do Thái kiểm soát hệ thống tài chính toàn cầu là một phần của thuyết âm mưu bài Do Thái.
Meta thừa nhận rằng chatbot có thể nói những điều xúc phạm vì nó vẫn là một thử nghiệm đang được phát triển. Niềm tin đã nêu của bot cũng không nhất quán; trong các cuộc trò chuyện khác với Bloomberg, nó đã chấp thuận Tổng thống Joe Biden và cho biết Beto O’Rourke đang tranh cử tổng thống. Trong cuộc trò chuyện thứ ba, nó nói rằng nó ủng hộ Bernie Sanders.
Để bắt đầu cuộc trò chuyện, người dùng BlenderBot 3 phải chọn một hộp được viết là “Tôi hiểu bot này chỉ dành cho nghiên cứu và giải trí và nó có khả năng đưa ra những tuyên bố không đúng sự thật hoặc xúc phạm. Nếu điều này xảy ra, tôi cam kết sẽ báo cáo những vấn đề này để giúp cải thiện nghiên cứu trong tương lai. Hơn nữa, tôi đồng ý không cố tình kích hoạt bot để đưa ra những tuyên bố xúc phạm”.
Người dùng có thể báo cáo các phản hồi không phù hợp và xúc phạm của BlenderBot 3 và Meta cho biết họ rất coi trọng nội dung đó. Thông qua các phương pháp bao gồm gắn cờ "lời nhắc khó", công ty cho biết họ đã giảm 90% phản ứng xúc phạm.