Ông Simon Harari, Giám đốc phụ trách Chính sách nội dung, Facebook châu Á Thái Bình Dương, có buổi gặp với một số phóng viên Việt Nam hôm 17/6, nhằm chia sẻ về bộ tiêu chuẩn cộng đồng của Facebook.
Ông Simon Harari, Giám đốc phụ trách Chính sách nội dung, Facebook Châu Á Thái Bình Dương. (Ảnh: H.Đ).
Trả lời ICTnews về việc một nội dung đăng tải lên Facebook dù phù hợp tiêu chuẩn cộng đồng nhưng vi phạm pháp luật của một quốc gia nào đó thì Facebook sẽ xử lí ra sao, ông Simon cho biết những nội dung như vậy sẽ được đưa vào quy trình xử lí.
Bộ phận pháp chế của Facebook sẽ kiểm tra nội dung đăng tải xem có vi phạm pháp luật của một quốc gia nào đó hay không. Khi đã xác định bài viết phạm luật, thông tin trên sẽ được ẩn đi, không hiển thị trong phạm vi quốc gia đó. Tuy nhiên, người dùng Facebook các quốc gia khác vẫn nhìn thấy được bài viết nói trên.
“Chính sách này được áp dụng cho mọi quốc gia trên thế giới, đó có thể là Việt Nam, Mỹ, Úc, Ấn Độ,...”, ông Simon giải thích.
“Tuy nhiên nội dung trên sẽ chỉ không hiển thị trong phạm vi quốc gia mà nó vi phạm, những người dùng khác trên thế giới vẫn thấy được. Vì chúng tôi không muốn pháp luật một nước cụ thể nào đó ảnh hưởng đến quyền xem nội dung của người dùng toàn thế giới”.
Trả lời về vấn nạn tin giả lan truyền trên Facebook, đại diện mạng xã hội này cho biết họ có 3 bước tiến hành: gỡ bỏ, giảm thiểu, thông tin.
Đầu tiên, nếu xác định thông tin lan truyền là giả, có ảnh hưởng đến cuộc sống ngoài xã hội, chẳng hạn ảnh hưởng đến các cuộc bầu cử, thì Facebook sẽ gỡ bỏ các thông tin đó. Đặc biệt đối với các tài khoản giả mạo sẽ bị xoá ngay nếu bị phát hiện.
Tuy nhiên, đối với các thông tin giả mạo chưa xác định được ảnh hưởng của nó tới cộng đồng, Facebook sẽ hạn chế hiển thị các nội dung đó.
Cuối cùng, ông Simon cho biết Facebook có các chương trình đào tạo, hướng dẫn nhằm thông tin đến người dùng về cách phát hiện các thông tin giả mạo.
Trong buổi gặp ngày 16/5 trước đó, đại diện Facebook cho biết hiện có 15.000 nhân viên trên khắp thế giới chịu trách nhiệm xem xét nội dung được báo cáo là có khả năng vi phạm. Những người này đến từ những đất nước khác nhau và sử dụng hơn 50 ngôn ngữ, bao gồm cả tiếng Việt. Những người kiểm duyệt nội dung này là một phần của một đội ngũ lớn hơn bao gồm hơn 30.000 người trên khắp thế giới có nhiệm vụ tập trung vào an toàn và bảo mật.
Tiêu chuẩn cộng đồng của Facebook được cập nhật thường xuyên. Hiện nay tổng cộng có 9 chính sách trong Tiêu chuẩn cộng đồng, đó là: ảnh khỏa thân người lớn và hoạt động tình dục, bắt nạt và quấy rối, ảnh khỏa thân trẻ em và bóc lột tình dục trẻ em, tài khoản giả, ngôn từ gây thù ghét, hàng hóa bị kiểm soát, spam, hoạt động tuyên truyền khủng bố toàn cầu, nội dung bạo lực và phản cảm.
Facebook cho biết đã vô hiệu hóa 1,2 tỉ tài khoản giả mạo trong quý IV/2018 và 2,19 tỉ trong quý I/2019. Mạng xã hội này đã xây dựng hệ thống máy học để xác định các thông tin đăng tải không phù hợp, và trong các trường hợp phát hiện vi phạm tiêu chuẩn cộng đồng, có hơn 95% nội dung được phát hiện trước khi cần người khác báo cáo.
Trong buổi gặp này, nhiều người phản ánh tình trạng Facebook gỡ bỏ bài đăng, khoá tài khoản,... mà không được báo trước, cũng không đưa ra thời hạn xử lý. Ông Simon cho biết Facebook đã tích hợp thêm nút Kháng cáo (Appeal) bên cạnh các thông báo khoá tài khoản, gỡ nội dung,... để người dùng khiếu nại trong trường hợp muốn Facebook xem lại trường hợp của họ.