HI-TECH

Facebook xoá 8,7 triệu nội dung khai thác ảnh khiêu dâm, lạm dụng tình dục trẻ em

Huệ Anh 15:21 19/11/2018

Facebook đã sử dụng AI để xoá 8,7 triệu bài viết có nội dung về khiêm dâm, khoả thân và lạm dụng tình dục trẻ em. Các chủ tài khoản phát tán nội dung này cũng bị loại bỏ khỏi hệ thống của Facebook.

Không chỉ sử dụng AI để truy tìm các tài khoản phát tán nội dung liên quan tới khiêu dâm, khoả thân mà Facebook còn sử dụng công nghệ này để ngăn chặn các nội dung xâm hại tới trẻ nhỏ. Từ tháng 7 – 9 năm nay, Facebok đã xoá 8,7 triệu bài viết như vậy và các chủ tài khoản phát tán nội dung này cũng bị loại bỏ khỏi hệ thống của Facebook.

Hiện tại, Facebook cũng quy định người dùng mạng xã hội này phải có độ tuổi từ 13 trở lên. Tuy không thể ngăn chặn hoàn toàn những nó cũng góp phần giới hạn được các bài viết liên quan tới trẻ em trên Facebook. Công nghệ AI sẽ tiếp tục hoàn thành nốt phần việc còn lại, đó là lọc và chặn các nội dung liên quan tới hành vi lạm dụng trẻ em.

Bức ảnh "Em bé Napalm" từng bị hệ thống AI của Facebook nhận diện nhầm sang nội dung nhạy cảm

Tuy nhiên, hệ thống AI của Facebook cũng đôi lúc gặp phải sai lầm. Chẳng hạn như bức ảnh “Em bé Napalm” nổi tiếng của Nick Út – bức ảnh đoạt giải Pulitzer năm 1973 khắc hoạ sự khốc liệt của cuộc chiến tranh tại Việt Nam -  đã bị AI kiểm duyệt và đưa vào danh sách bài viết bị cấm do có hình ảnh cô bé 9 tuổi khoả thân vì da thịt, quần áo bị đốt cháy bởi bom đạn.

Theo báo cáo tiêu chuẩn cộng đồng mới đây, từ tháng 4 – 9 năm nay, Facebook cũng xoá khoảng 1,5 tỷ tài khoản giả mạo khỏi mạng xã hội và 2,1 tỷ tin rác. Theo Facebook, nhiều tài khoản giả mạo là kết quả trực tiếp từ các vụ tấn công mạng.

Facebook đang "thanh lọc" mạng xã hội để tăng cường trải nghiệm cho người dùng

Hiện tại, Facebook đang cải thiện việc nhận diện và ngăn chặn nội dung vi phạm trước khi mọi người nhìn thấy và báo cáo chúng. Được biết, công ty đã xử lý khoảng 95,9% nội dung vi phạm trước khi người dùng báo cáo.