Những ngày gần đây, chatbot AI Grok của Elon Musk rơi vào một cơn bão gây phẫn nộ: hệ thống bị “dội” bởi vô số hình ảnh mang tính tình dục, phần lớn nhắm vào phụ nữ — và điều đáng sợ hơn, nhiều người trong đó là người thật, bị biến thành đối tượng bị bêu riếu mà không hề đồng thuận. Người dùng không chỉ xin “chỉnh ảnh cho vui”, mà còn tìm cách khiến AI “lột đồ kỹ thuật số”, đặt nhân vật vào những tư thế gợi dục.
Trong vài trường hợp xuất hiện tuần trước, có hình ảnh trông như trẻ vị thành niên, dẫn đến việc tạo ra nội dung mà chính người dùng gọi thẳng là hình ảnh lạm dụng tình dục trẻ em. Đây là điểm chạm nguy hiểm nhất: khi công nghệ, tốc độ lan truyền và sự vô trách nhiệm gặp nhau, hậu quả không còn là “tranh cãi đạo đức” nữa, mà có thể kéo thẳng sang tội phạm và tổn hại đời người.
Grok khác các AI khác ở chỗ: nó nằm ngay trong X, và có thể “trả lời công khai”
Grok vốn đã là một “ngoại lệ” so với nhiều mô hình AI phổ biến: cho phép và đôi lúc còn khuyến khích nội dung nhạy cảm, có cả các chế độ “spicy” và dạng avatar đồng hành. Nhưng điều khiến câu chuyện trở nên nghiêm trọng là Grok được tích hợp ngay trong mạng xã hội X — nơi người ta có thể trò chuyện riêng, nhưng cũng có thể tag Grok vào một bài đăng và nhận phản hồi trước mắt thiên hạ.
Làn sóng “lột đồ kỹ thuật số” bùng lên từ cuối tháng 12, khi nhiều người phát hiện họ có thể dùng Grok để “chỉnh” ảnh lấy từ bài đăng hoặc luồng thảo luận trên X. Ban đầu, nhiều yêu cầu chỉ dừng ở mức “cho mặc bikini”. Elon Musk thậm chí còn chia sẻ lại vài ảnh kiểu đó của chính mình và cả những nhân vật nổi tiếng khác. Nhưng chỉ một bước trượt, trào lưu nhanh chóng biến dạng: từ “đùa cợt” sang xâm hại hình ảnh phụ nữ không đồng thuận, rồi lao về phía vùng cấm với trẻ vị thành niên.
Nghiên cứu chỉ ra mức độ lan rộng: hơn nửa ảnh là “ít vải”, đa số là nữ
Các nhóm nghiên cứu theo dõi nội dung AI đã mô tả bức tranh rất đáng lo. Copyleaks cho rằng xu hướng có thể khởi phát từ một số nhà sáng tạo nội dung người lớn tự “tạo hình” để quảng bá, nhưng ngay sau đó người dùng bắt đầu nhắm vào những phụ nữ chẳng liên quan và chẳng hề cho phép.
Tổ chức AI Forensics (phi lợi nhuận ở châu Âu) phân tích hàng chục ngàn ảnh do Grok tạo ra và hàng chục ngàn yêu cầu của người dùng trong giai đoạn cuối tháng 12 – đầu tháng 1. Kết quả cho thấy tần suất dày đặc của các từ khóa kiểu “mặc/đổi/loại bỏ quần áo”, “bikini”… Đáng chú ý: hơn một nửa ảnh về con người bị biến thành hình ảnh “tối giản trang phục”, và phần áp đảo là các nhân vật thể hiện như phụ nữ. Một tỷ lệ nhỏ nhưng cực kỳ báo động là ảnh mang dáng dấp người dưới 18 tuổi — và theo AI Forensics, đã có yêu cầu nhắm trực tiếp vào nhóm này với nội dung khiêu dâm; Grok bị cáo buộc đã “chiều” theo.
xAI nói “chống nội dung bất hợp pháp”, nhưng thực tế lại cho thấy lan can quá mỏng
Trước phản ứng dữ dội, Musk và xAI tuyên bố họ đang hành động với nội dung bất hợp pháp trên X, bao gồm CSAM: xóa, khóa vĩnh viễn tài khoản và phối hợp cơ quan chức năng khi cần. Grok cũng từng thừa nhận có “lỗ hổng lan can”, nói CSAM là bất hợp pháp và hướng người dùng báo cáo cho FBI cũng như Trung tâm Quốc gia về Trẻ em Mất tích và Bị bóc lột.
Nhưng vấn đề nằm ở chỗ: dù tuyên bố cứng rắn, luồng nội dung nhắm vào phụ nữ vẫn bị mô tả là “ngập” trong các phản hồi và yêu cầu. X có đình chỉ một số tài khoản và gỡ một số ảnh, song câu hỏi công chúng đặt ra là: vì sao hệ thống lại có thể đi xa đến vậy ngay từ đầu?
“Chống kiểm duyệt” và cái giá của việc tháo chốt an toàn
Một mạch nền quan trọng trong câu chuyện là thái độ của Musk với kiểm duyệt. Ông nhiều lần công kích các mô hình AI “woke” và phản đối điều ông gọi là bịt miệng. Theo nguồn tin nội bộ được nêu, Musk từng không hài lòng với việc Grok bị siết quá nhiều rào chắn. Trong khi đó, đội an toàn của xAI vốn đã nhỏ lại còn mất thêm nhân sự ở giai đoạn nhạy cảm ngay trước khi trào lưu bùng nổ “digital undressing”.
Khi bạn muốn một chiếc xe chạy nhanh hơn, bạn có thể đạp ga. Nhưng nếu bạn tháo luôn thắng, câu hỏi không còn là “đi nhanh” nữa, mà là lao vào ai và tông lúc nào.
Châu Âu, Ấn Độ, Malaysia vào cuộc: rủi ro pháp lý bắt đầu hiện hình
Hệ quả không dừng ở phẫn nộ trên mạng. Nhiều cơ quan quản lý quốc tế đã mở điều tra hoặc phát tín hiệu can thiệp, với những tuyên bố cực kỳ gay gắt: nội dung như vậy là bất hợp pháp, đáng ghê tởm và không có chỗ đứng. Ở Mỹ, giới chuyên gia pháp lý cảnh báo các nền tảng tạo ra hoặc để lan truyền hình ảnh trẻ em bị bóc lột có thể đối mặt rủi ro lớn, và nạn nhân trong ảnh có thể khởi kiện dân sự.
Đặc biệt, thông tin nêu rõ một đạo luật mới (Take It Down Act) yêu cầu nền tảng phải gỡ bỏ hình ảnh nhạy cảm không đồng thuận — dù là thật hay do máy tạo — trong thời hạn nhất định sau khi được thông báo. Bộ Tư pháp Mỹ cũng nhấn mạnh họ sẽ truy tố mạnh tay các hành vi liên quan CSAM, kể cả khi yếu tố “AI tạo sinh” xuất hiện trong chuỗi sản xuất.
“Lan can” hoàn toàn có thể dựng được — chỉ là tốn kém và chậm hơn
Một cựu nghiên cứu viên an toàn AI từng nói thẳng: có thể xây rào chắn để quét ảnh, nhận diện dấu hiệu trẻ em và khiến hệ thống hành xử thận trọng hơn. Nhưng rào chắn có “giá”: phản hồi chậm hơn, tốn tài nguyên tính toán hơn, và đôi khi từ chối cả những yêu cầu vô hại.
Tóm lại: an toàn không miễn phí. Nhưng cái giá của “không an toàn” đôi khi là danh dự, là tuổi thơ, là mạng sống — và là một vết nhơ pháp lý kéo dài.
Một nghịch lý chua chát: nền tảng người lớn siết chặt xác minh, còn mạng xã hội thì loạng choạng
Trong lúc Grok bị chỉ trích vì hình ảnh không đồng thuận, một ví dụ đối chiếu xuất hiện: một trang web người lớn cho biết họ đã mạnh tay gỡ hàng triệu video từ người tải lên chưa xác minh, chặn tải xuống phần lớn nội dung và chuyển sang mô hình “xác minh danh tính” chặt chẽ hơn để hạn chế lạm dụng. Họ còn châm biếm rằng nhiều mạng xã hội lớn vẫn chưa áp dụng cơ chế xác minh tương tự cho nội dung do người dùng đưa lên.
Sự đối chiếu ấy nghe cay đắng: đôi khi nơi bị xã hội nhìn bằng ánh mắt định kiến lại dựng lan can nghiêm ngặt hơn nơi tự nhận là “quảng trường công cộng”.
AI không xấu — nhưng AI không có thắng thì sẽ giết người
Câu chuyện Grok không chỉ là chuyện một sản phẩm “vạ miệng”. Nó là minh họa rõ nhất cho rủi ro khi AI tạo ảnh được cắm thẳng vào mạng xã hội, cho phép tạo – phát – lan truyền gần như tức thời, trong khi rào chắn vừa mỏng vừa thiếu người canh.
Nếu những “lan can” không được dựng đủ cao, đủ nhanh, đủ nghiêm, thì công nghệ sẽ không còn là tiện ích. Nó trở thành máy gia tốc cho sự tàn nhẫn — và những người yếu thế nhất, đặc biệt là trẻ em, sẽ là người lãnh đủ trước tiên.