OpenAI, Microsoft, Google, Meta và những công ty khác đã hứa hẹn sẽ ngăn các công cụ AI của họ tạo và truyền bá nội dung có tính chât lạm dụng tình dục trẻ em.
Các công ty trí tuệ nhân tạo hàng đầu bao gồm OpenAI, Microsoft, Google, Meta và các công ty khác đã cùng cam kết ngăn chặn việc sử dụng các công cụ AI của họ để bóc lột trẻ em và tạo ra tài liệu lạm dụng tình dục trẻ em (CSAM). Sáng kiến này được dẫn dắt bởi nhóm an toàn trẻ em Thorn và All Tech Is Human, một tổ chức phi lợi nhuận tập trung vào công nghệ có trách nhiệm.
Thorn cho biết, những cam kết từ các công ty AI “đã đặt ra tiền lệ đột phá cho ngành và thể hiện bước nhảy vọt đáng kể trong nỗ lực bảo vệ trẻ em khỏi lạm dụng tình dục khi một tính năng của AI phát triển mở ra”. Mục tiêu của sáng kiến này là ngăn chặn việc tạo ra tài liệu khiêu dâm liên quan đến trẻ em và loại bỏ nó khỏi các nền tảng truyền thông xã hội và công cụ tìm kiếm. Thorn cho biết, hơn 104 triệu tệp tài liệu nghi ngờ lạm dụng tình dục trẻ em đã được báo cáo chỉ riêng ở Hoa Kỳ vào năm 2023. Trong trường hợp không có hành động tập thể, AI có khả năng tạo ra sẽ làm cho vấn đề này trở nên tồi tệ hơn và áp đảo các cơ quan thực thi pháp luật vốn đang gặp khó khăn trong việc xác định nạn nhân thực sự.
Vào thứ Ba, Thorn và All Tech Is Human đã phát hành một bài báo mới có tiêu đề “An toàn theo thiết kế cho AI sáng tạo: Ngăn chặn lạm dụng tình dục trẻ em” nêu ra các chiến lược và đưa ra khuyến nghị cho các công ty xây dựng công cụ AI, công cụ tìm kiếm, nền tảng truyền thông xã hội, công ty lưu trữ và các nhà phát triển thực hiện các bước để ngăn chặn việc sử dụng AI để gây hại cho trẻ em.
Ví dụ: một trong những khuyến nghị yêu cầu các công ty chọn các bộ dữ liệu được sử dụng để đào tạo các mô hình AI một cách cẩn thận và tránh những bộ dữ liệu chỉ chứa các trường hợp CSAM nhưng cũng chứa cả nội dung khiêu dâm người lớn vì AI có xu hướng kết hợp hai khái niệm này. Thorn cũng đang yêu cầu các nền tảng truyền thông xã hội và công cụ tìm kiếm xóa liên kết đến các trang web và ứng dụng cho phép mọi người chụp ảnh “khỏa thân” của trẻ em, từ đó tạo ra tài liệu lạm dụng tình dục trẻ em mới do AI tạo ra trực tuyến. Theo bài báo, làn sóng CSAM do AI tạo ra sẽ khiến việc xác định nạn nhân thực sự của lạm dụng tình dục trẻ em trở nên khó khăn hơn bằng cách làm tăng “haystack problem” – ám chỉ số lượng nội dung mà các cơ quan thực thi pháp luật phải sàng lọc là rất lớn.
Phó chủ tịch khoa học dữ liệu của Thorn, Rebecca Portnoff nói với Wall Street Journal: “Chúng tôi muốn có thể thay đổi tiến trình của công nghệ này để loại bỏ những tác hại hiện có của công nghệ này ngay từ đầu.”
Portnoff cho biết, một số công ty đã đồng ý tách hình ảnh, video và âm thanh có liên quan đến trẻ em khỏi các bộ dữ liệu chứa nội dung người lớn để ngăn mô hình của họ kết hợp cả hai. Những công ty khác cũng thêm hình mờ để xác định nội dung do AI tạo ra, nhưng phương pháp này không dễ thực hiện – hình mờ và siêu dữ liệu có thể dễ dàng xóa.