Để hiểu rõ hơn cái gì gọi là “Tiêu chuẩn cộng đồng Facebook”, về cách xây dựng các tiêu chuẩn, nội dung những thứ được đăng hoặc không được đăng lên Facebook, cũng như cách triển khai nó, Facebook chiều nay đã tổ chức một buổi gặp gỡ để giải thích. Bên dưới đây là một số nội dung mà mình biết được sau khi đi tham dự, xin được chia sẻ với anh em những số liệu, giúp phần nào trả lời được câu hỏi “Tại sao bài này của mình bị xoá?”
Tiêu chuẩn cộng đồng được Facebook định nghĩa là các quy tắc để quyết định xem những gì có thể và không thể đăng lên Facebook. Mục đích của các quy tắc là tạo ra một môi trường lành mạnh, nơi người dùng có thể tự do thể hiện bản thân một cách an toàn. Những điều đó dựa trên 3 nguyên tắc là An toàn, Tiếng nói và Công bằng. Để triển khai chi tiết hơn, Facebook cho biết đã liên tục cập nhật nhiều phiên bản về tiêu chuẩn công đồng và nó được công khai trên Facebook bằng nhiều ngôn ngữ, tất nhiên là có tiếng Việt.
Bên cạnh tiêu chuẩn cộng đồng chi tiết, Facebook cho biết đã mở rộng các điều kiện kháng nghị cho người dùng. Một khi bài đăng bị Facebook gỡ, người dùng có thể bấm nút và cho Facebook biết bạn không đồng ý về điều đó.
Về việc kiểm duyệt nội dung. Facebook cho biết họ có một đội ngũ chính sách nội dung với đa dạng thành phần, từ công tố viên, luật sư và chuyên gia về an toàn. Đội ngũ này hoạt động từ các văn phòng đặt tại khắp nơi trên thế giới, đồng thời thường xuyên làm việc với những tổ chức, chuyên gia, giảng viên về an toàn online,…
Facebook nói hiện họ đã có đội ngũ 30 ngàn người kiểm duyệt, đảm bảo an toàn và bảo mật. Mặt khác cũng sử dụng trí thông minh nhân tạo để chủ động phát hiện ra các nội dung vi phạm, bổ sung cho các báo cáo nhận được từ cộng đồng. Tất cả quy chuẩn cộng đồng sẽ được áp dụng đối với mọi người dùng từ khắp nơi trên thế giới.
Bài của bạn bị xoá bởi người hay máy? Facebook cho biết bài đăng sau khi được gắn cờ bởi người dùng, hoặc AI, sẽ được đội ngũ kiểm duyệt review để đưa ra quyết định xem có vi phạm hay không, nếu có sẽ xoá. Facebook nói rằng với cách làm này, chỉ trong quý 1/2019 họ đã xoá tổng cộng 4 triệu bài viết chứa ngôn từ thù địch, kích động, vô hiệu hoá 2,19 tỷ tài khoản giả mạo. 95% số nội dung bị xoá được AI chủ động phát hiện thay vì đợi báo cáo từ người dùng.
Điều gì sẽ xảy ra khi các tiêu chuẩn cộng đồng của Facebook xung đột với quy định tại một nơi nào đó? Khi được hỏi cái này, Facebook cho biết họ có một team cố vấn luật pháp riêng cho vấn đề này để đưa ra hướng xử lý. Và có khả năng, bài đăng sẽ không được xuất hiện trên Facebook phiên bản của nơi đó, tuy nhiên vẫn sẽ xuất hiện đối với người dùng ở những nơi khác bởi họ cho rằng không thể áp dụng luật lệ ở một nơi cục bộ cho toàn cầu được.
Share bài từ link với nội dung về sản phẩm LG, bị report và xoá post, tại sao? Hôm trước Cuhiep đã gặp phải trường hợp này. Mình có gặp riêng người đại diện bộ phận soạn chính sách cộng đồng của Facebook để hỏi về trường hợp cụ thể này. Câu trả lời của anh ấy là có thể chữ LG bị nhận diện là LGBT, từ đó hệ thống hiểu là có khả năng bài đăng ám chỉ sự kỳ thị hoặc kích động cộng đồng giới tính thứ 3, cuối cùng là xoá post. Vụ việc và cách giải thích này đã dấy lên nghi ngờ rằng có thể, quyết định xoá bài đăng trên Facebook (chiếm một tỷ lệ nào đó?) được tiến hành một cách tự động bởi máy tính chứ không phải bởi đội ngũ kiểm duyệt của Facebook quyết định cuối cùng.
Tiêu chuẩn cộng đồng được Facebook định nghĩa là các quy tắc để quyết định xem những gì có thể và không thể đăng lên Facebook. Mục đích của các quy tắc là tạo ra một môi trường lành mạnh, nơi người dùng có thể tự do thể hiện bản thân một cách an toàn. Những điều đó dựa trên 3 nguyên tắc là An toàn, Tiếng nói và Công bằng. Để triển khai chi tiết hơn, Facebook cho biết đã liên tục cập nhật nhiều phiên bản về tiêu chuẩn công đồng và nó được công khai trên Facebook bằng nhiều ngôn ngữ, tất nhiên là có tiếng Việt.
Bên cạnh tiêu chuẩn cộng đồng chi tiết, Facebook cho biết đã mở rộng các điều kiện kháng nghị cho người dùng. Một khi bài đăng bị Facebook gỡ, người dùng có thể bấm nút và cho Facebook biết bạn không đồng ý về điều đó.
Về việc kiểm duyệt nội dung. Facebook cho biết họ có một đội ngũ chính sách nội dung với đa dạng thành phần, từ công tố viên, luật sư và chuyên gia về an toàn. Đội ngũ này hoạt động từ các văn phòng đặt tại khắp nơi trên thế giới, đồng thời thường xuyên làm việc với những tổ chức, chuyên gia, giảng viên về an toàn online,…
Facebook nói hiện họ đã có đội ngũ 30 ngàn người kiểm duyệt, đảm bảo an toàn và bảo mật. Mặt khác cũng sử dụng trí thông minh nhân tạo để chủ động phát hiện ra các nội dung vi phạm, bổ sung cho các báo cáo nhận được từ cộng đồng. Tất cả quy chuẩn cộng đồng sẽ được áp dụng đối với mọi người dùng từ khắp nơi trên thế giới.
Bài của bạn bị xoá bởi người hay máy? Facebook cho biết bài đăng sau khi được gắn cờ bởi người dùng, hoặc AI, sẽ được đội ngũ kiểm duyệt review để đưa ra quyết định xem có vi phạm hay không, nếu có sẽ xoá. Facebook nói rằng với cách làm này, chỉ trong quý 1/2019 họ đã xoá tổng cộng 4 triệu bài viết chứa ngôn từ thù địch, kích động, vô hiệu hoá 2,19 tỷ tài khoản giả mạo. 95% số nội dung bị xoá được AI chủ động phát hiện thay vì đợi báo cáo từ người dùng.
Điều gì sẽ xảy ra khi các tiêu chuẩn cộng đồng của Facebook xung đột với quy định tại một nơi nào đó? Khi được hỏi cái này, Facebook cho biết họ có một team cố vấn luật pháp riêng cho vấn đề này để đưa ra hướng xử lý. Và có khả năng, bài đăng sẽ không được xuất hiện trên Facebook phiên bản của nơi đó, tuy nhiên vẫn sẽ xuất hiện đối với người dùng ở những nơi khác bởi họ cho rằng không thể áp dụng luật lệ ở một nơi cục bộ cho toàn cầu được.
Share bài từ link với nội dung về sản phẩm LG, bị report và xoá post, tại sao? Hôm trước Cuhiep đã gặp phải trường hợp này. Mình có gặp riêng người đại diện bộ phận soạn chính sách cộng đồng của Facebook để hỏi về trường hợp cụ thể này. Câu trả lời của anh ấy là có thể chữ LG bị nhận diện là LGBT, từ đó hệ thống hiểu là có khả năng bài đăng ám chỉ sự kỳ thị hoặc kích động cộng đồng giới tính thứ 3, cuối cùng là xoá post. Vụ việc và cách giải thích này đã dấy lên nghi ngờ rằng có thể, quyết định xoá bài đăng trên Facebook (chiếm một tỷ lệ nào đó?) được tiến hành một cách tự động bởi máy tính chứ không phải bởi đội ngũ kiểm duyệt của Facebook quyết định cuối cùng.