Facebook gặp khó trong kiểm duyệt nội dung vì Covid-19

Facebook thừa nhận việc kiểm duyệt nội dung liên quan đến tự tử, tự gây thương tích, bóc lột trẻ em… gặp nhiều khó khăn khi Covid-19 đạt đỉnh.

Đây là nội dung nằm trong báo cáo về việc thực thi các tiêu chuẩn cộng đồng đăng trên blog hôm 11/8. Theo Facebook, việc kiểm soát nội dung trên nền tảng bị ảnh hưởng chủ yếu trong khoảng tháng 4 đến tháng 6 năm nay.

Mạng xã hội lớn nhất thế giới thừa nhận, công ty không thể đo lường được mức độ phổ biến của các chủ đề và hình ảnh bạo lực, cũng như nội dung người lớn thời gian này. Lượng nội dung khiếu nại mà Facebook có thể xem xét trong thời gian này cũng “thấp hơn nhiều”.

Việc kiểm duyệt nội dung của Facebook gặp nhiều khó khăn khi đại dịch bùng phát. Ảnh: Shutterstock.

Việc kiểm duyệt nội dung của Facebook gặp nhiều khó khăn khi đại dịch bùng phát. Ảnh: Shutterstock.

Đối với các nội dung về Covid-19, Facebook cho biết đã xóa 7 triệu thông tin sai lệch khỏi hai nền tảng Facebook và Instagram trong cùng khoảng thời gian. Guy Rosen, phó chủ tịch phụ trách minh bạch của Facebook, tiết lộ công ty đã dán nhãn cảnh báo trên 98 triệu nội dung có chứa thông tin không đúng sự thật về đại dịch trên nền tảng. Con số này tăng hơn gấp đôi so với 40 triệu nhãn cảnh báo trong quý đầu tiên của năm 2020.

“Hàng triệu bài đăng lan truyền các biện pháp phòng ngừa hoặc phương pháp chữa trị Covid-19 theo cách phóng đại hoặc không đúng sự thật. Chúng tôi đã tham khảo thông tin từ CDC và các chuyên gia y tế, những người khẳng định nội dung này là nguy hiểm”, Rosen nói.

Facebook hiện dựa vào hệ thống AI tự xây dựng và đội ngũ kiểm duyệt thuê từ bên thứ ba để kiểm soát nội dung trên các nền tảng của mình, gồm Facebook, Instagram, WhatsApp. Hồi tháng 5, CEO Mark Zuckerberg từng nói rằng khả năng kiểm duyệt nội dung của hãng cũng đã bị ảnh hưởng bởi Covid-19.

Trong báo cáo, Facebook khẳng định công nghệ kiểm duyệt của hãng đang được cải thiện và “sẽ tiếp tục mở rộng các lĩnh vực kiểm duyệt, đồng thời dựa vào con người để vừa đánh giá nội dung, vừa đào tạo cho AI”.

Với AI, mạng xã hội nhấn mạnh rằng hệ thống của mình đã cải thiện tỷ lệ phát hiện chủ động các phát ngôn thù hận, kích động lòng căm ghét, khủng bố cũng như nội dung bắt nạt và quấy rối. Đối với đội ngũ kiểm duyệt, Facebook cho biết đã cho phép phần lớn thực hiện công việc từ xa. Tuy nhiên, một số người vẫn hoạt động tại văn phòng công ty, chủ yếu xem xét những vấn đề “nhạy cảm” hay video trực tiếp.

Theo số liệu của Guardian, những năm gần đây, Facebook đã có bước tiến lớn trong việc kiểm duyệt nội dung. Trong quý III/2017, theo báo cáo về tiêu chuẩn cộng đồng của công ty, Facebook tự phát hiện 25% số phát ngôn thù hận; 75% còn lại được gỡ bỏ sau khi người dùng gắn cờ báo cho bộ phận kiểm duyệt. Dù vậy, năm nay tỷ lệ đã đảo ngược. 88% nội dung gây thù hận được gỡ bỏ khỏi Facebook nhờ công cụ của chính nền tảng này, gấp 4 lần so với hai năm trước.

Bảo Lâm (theo CNBC)

Nguồn : vnexpress.net