Bài dịch | Facebook đang thất bại trong việc ngăn chặn một thảm kịch nhân quyền khác diễn ra trên nền tảng của mình

Một báo cáo của nhóm chiến dịch Avaaz kiểm tra xem nền tảng của Facebook đang được sử dụng như thế nào để truyền bá ngôn từ kích động thù địch ở khu vực Assam ở Đông Bắc Ấn Độ cho thấy công ty một lần nữa thất bại trong việc ngăn chặn nền tảng của mình biến thành vũ khí để thúc đẩy bạo lực sắc tộc.

Assam có dân số thiểu số Hồi giáo lâu đời nhưng các dân tộc thiểu số trong bang trông ngày càng dễ bị tổn thương sau khi chính phủ quốc gia Ấn Độ giáo của Ấn Độ đẩy mạnh với Sổ đăng ký công dân quốc gia (NRC), dẫn đến việc loại trừ khỏi danh sách gần 1,9 triệu người này - chủ yếu là người Hồi giáo - đưa họ vào nguy cơ statelessness.

Vào tháng 7 , Liên Hợp Quốc đã bày tỏ mối quan ngại sâu sắc đối với quá trình NRC, nói rằng có nguy cơ bị trục xuất và giam giữ tùy tiện, với những người bị loại trừ được đưa ra Tòa án của người nước ngoài nơi họ phải chứng minh rằng họ không phải là bất thường.

Đồng thời, Liên Hợp Quốc cảnh báo về sự gia tăng của ngôn từ kích động thù địch ở Assam được lan truyền qua phương tiện truyền thông xã hội - nói rằng điều này đang góp phần làm tăng sự bất ổn và bất ổn cho hàng triệu người trong khu vực. Quá trình này có thể làm trầm trọng thêm khí hậu bài ngoại trong khi thúc đẩy sự không khoan dung tôn giáo và phân biệt đối xử trong nước.

Có một cảm giác tồi tệ của deja-vu về những cảnh báo này. Vào tháng 3 năm 2018 , Liên Hợp Quốc đã chỉ trích Facebook vì đã không ngăn chặn nền tảng của nó được sử dụng để thúc đẩy bạo lực sắc tộc đối với người Rohingya ở quốc gia láng giềng Myanmar - nói rằng dịch vụ này đã đóng vai trò quyết định trong cuộc khủng hoảng đó.

Facebook của Phản ứng trước những chỉ trích tàn khốc từ Liên Hợp Quốc có vẻ như PR khủng hoảng mỏng hơn để viết về các vết nứt đạo đức trong kinh doanh quảng cáo của mình, với những tiếng chuông báo động tương tự đang được vang lên trở lại, chỉ hơn một năm sau. (Nếu chúng tôi đo lường công ty bằng các mục tiêu cao cả mà công ty đã gắn với một giám đốc công việc chính sách nhân quyền năm ngoái - khi Facebook viết rằng các trách nhiệm bao gồm phòng ngừa xung đột giữa các nhà tù và phòng chống xây dựng hòa bình - thì đó chắc chắn là một thất bại.

Báo cáo của Avaaz về phát ngôn thù hận ở Assam nhắm trực tiếp vào nền tảng của Facebook, nói rằng nó được sử dụng như một ống dẫn để đánh tan sự thù hận chống Hồi giáo.

Trong báo cáo, có tiêu đề Megaphone cho Ghét: Thông tin sai lệch và Ghét trên Facebook trong Tổng công dân của Assam , nhóm cho biết họ đã phân tích 800 bài đăng và nhận xét trên Facebook liên quan đến Assam và NRC, sử dụng từ khóa từ diễn ngôn nhập cư ở Assamese, đánh giá chúng chống lại ba tầng phát ngôn thù hận bị cấm được nêu trong Tiêu chuẩn cộng đồng của Facebook.

Avaaz thấy rằng ít nhất 26,5% số bài viết và ý kiến ​​thành lập kêu gọi thù hận. Các bài đăng này đã được chia sẻ trên Facebook hơn 99.650 lần - thêm tối thiểu 5,4 triệu lượt xem cho bài phát biểu thù địch bạo lực nhắm vào các nhóm thiểu số tôn giáo và dân tộc, theo phân tích của nó.

Bengali Hồi giáo là một mục tiêu cụ thể trên Facebook trong Assam, theo báo cáo, trong đó chỉ ra ý kiến ​​đề cập đến chúng như “tội phạm”, “hiếp dâm”, “khủng bố”, “lợn” và “chó”, trong điều kiện làm mất tính người khác.

Trong ý kiến ​​lo ngại hơn nữa là có những lời kêu gọi mọi người con gái “độc”, và hợp pháp hóa feticide nữ, cũng như một số bài viết kêu gọi phụ nữ “Ấn Độ” được bảo vệ khỏi “người nước ngoài hiếp dâm bị ám ảnh bởi”.

Avaaz cho thấy những phát hiện của họ chỉ là một giọt nước trong đại dương của những phát ngôn thù hận mà họ nói đang nhấn chìm Assam thông qua Facebook và các phương tiện truyền thông xã hội khác. Nhưng họ cáo buộc Facebook trực tiếp không cung cấp đủ nguồn nhân lực cho cảnh sát ghét phát ngôn trên nền tảng thống trị của mình.

Nhận xét trong một tuyên bố, Alaphia Zoyab, nhà vận động cấp cao, cho biết: Facebook Facebook đang bị sử dụng như một cái loa để ghét, chỉ thẳng vào nhóm thiểu số dễ bị tổn thương ở Assam, nhiều người trong số họ có thể bị cấm trong vòng vài tháng. Bất chấp nguy hiểm rõ ràng và hiện tại mà những người này phải đối mặt, Facebook đang từ chối dành những tài nguyên cần thiết để giữ an toàn cho họ. Thông qua việc không hoạt động, Facebook đồng lõa trong cuộc đàn áp một số người dễ bị tổn thương nhất thế giới.

Khiếu nại chính của nó là Facebook tiếp tục dựa vào AI để phát hiện ngôn từ kích động thù địch mà người dùng không báo cáo cho người dùng - sử dụng nhóm nhân viên điều hành nội dung (con người) hạn chế của mình để xem xét nội dung được gắn cờ, thay vì chủ động phát hiện.

Người sáng lập Facebook Mark Zuckerbergtrước đây đã nói AI có một chặng đường rất dài để phát hiện một cách đáng tin cậy lời nói ghét. Thật vậy, anh ấy đề nghị nó có thể không bao giờ có thể làm điều đó.

Vào tháng 4 năm 2018 , ông nói với các nhà lập pháp Hoa Kỳ, có thể mất từ ​​năm đến mười năm để phát triển các công cụ AI AI có thể đi vào một số sắc thái ngôn ngữ của các loại nội dung khác nhau để chính xác hơn, để gắn cờ mọi thứ vào hệ thống của chúng tôi, trong khi thừa nhận: Hôm nay chúng ta không có mặt ở đó.

Đó là khoản tiền thừa nhận rằng tại các khu vực như Assam - nơi căng thẳng giữa các sắc tộc đang bị quấy rầy trong bầu không khí mang tính chính trị cũng khuyến khích bạo lực - Facebook thực chất đang ngủ quên trong công việc. Công việc thực thi 'Tiêu chuẩn cộng đồng' của riêng mình và ngăn chặn nền tảng của nó được vũ khí hóa để khuếch đại sự ghét bỏ và quấy rối những người dễ bị tổn thương, là điều rõ ràng.

Avaaz nói rằng họ đã đánh dấu 213 trong số những ví dụ rõ ràng nhất về bài phát biểu thù hận mà họ tìm thấy trực tiếp trên Facebook - bao gồm các bài đăng từ một quan chức được bầu và các thành viên của một nhóm phiến quân Assam bị Chính phủ Ấn Độ cấm. Công ty đã xóa 96 bài đăng này sau báo cáo của mình.

Nó lập luận rằng có những điểm tương đồng trong kiểu phát ngôn thù hận nhắm vào các dân tộc thiểu số ở Assam thông qua Facebook và nhắm vào người Rohingya ở Myanmar, cũng trên Facebook, trong khi lưu ý rằng bối cảnh là khác nhau. Nhưng nó cũng tìm thấy nội dung đáng ghét trên Facebook nhắm vào người Rohingya ở Ấn Độ.

Họ đang kêu gọi Facebook làm nhiều hơn để bảo vệ các nhóm thiểu số dễ bị tổn thương ở Assam, cho rằng họ không nên chỉ dựa vào các công cụ tự động để phát hiện ngôn từ kích động thù địch - và thay vào đó nên áp dụng chính sách 'không khoan nhượng' do con người lãnh đạo. tăng cường chuyên môn của người điều hành trong các ngôn ngữ địa phương.

Họ cũng khuyến nghị Facebook khởi động một hệ thống cảnh báo sớm trong nhóm Phản ứng chiến lược của mình, một lần nữa dựa trên kiểm duyệt nội dung của con người - và làm như vậy cho tất cả các khu vực mà Liên Hợp Quốc đã cảnh báo về sự gia tăng của ngôn từ kích động thù địch trên phương tiện truyền thông xã hội.

Hệ thống này nên hành động phòng ngừa để ngăn chặn các cuộc khủng hoảng nhân quyền, không chỉ phản ứng lại để đối phó với tác hại ngoại tuyến đã xảy ra, nó viết.

Các khuyến nghị khác bao gồm Facebook nên sửa hồ sơ về tin tức sai lệch và thông tin sai lệch bằng cách thông báo và cung cấp sửa chữa từ người kiểm tra thực tế cho mỗi người dùng đã xem nội dung bị coi là sai hoặc cố ý gây hiểu lầm, kể cả nếu thông tin sai lệch đến từ chính trị gia; rằng cần phải minh bạch về tất cả các trang và gỡ xuống bài đăng bằng cách xuất bản hợp lý trên Facebook Newsroom để vấn đề phát ngôn thù hận được đưa ra tương ứng với sự nổi bật và công khai đối với quy mô của vấn đề trên Facebook; và cần đồng ý với một cuộc kiểm toán độc lập về ngôn từ kích động thù địch và quyền con người trên nền tảng của nó ở Ấn Độ.

Facebook Facebook đã đăng ký tuân thủ các Nguyên tắc Hướng dẫn của Liên Hợp Quốc về Kinh doanh và Nhân quyền, ghi chú của Avaaz. Phần mềm yêu cầu nó thực hiện các hoạt động nhân quyền như siêng năng như xác định tác động của nó đối với các nhóm dễ bị tổn thương như phụ nữ, trẻ em, dân tộc thiểu số, ngôn ngữ và tôn giáo và những người khác, đặc biệt là khi triển khai các công cụ AI để xác định lời nói ghét và thực hiện các bước sau đó để tránh hoặc giảm thiểu hại như vậy.

Chúng tôi đã liên hệ với Facebook với một loạt câu hỏi về báo cáo của Avaaz và cũng như cách mà nó đã tiến triển phương pháp tiếp cận chính sách phát ngôn thù hận giữa các sắc tộc kể từ cuộc khủng hoảng Myanmar - bao gồm hỏi chi tiết về số lượng người mà họ sử dụng để theo dõi nội dung trong khu vực .

Facebook đã không cung cấp câu trả lời cho câu hỏi cụ thể của chúng tôi. Họ chỉ nói rằng họ có những người đánh giá nội dung là Assamese và người đánh giá nội dung bằng ngôn ngữ, cũng như những người đánh giá có kiến ​​thức về phần lớn các ngôn ngữ chính thức ở Ấn Độ, bao gồm Assamese, Hindi, Tamil, Telugu, Kannada, Punjabi, Urdu, Tiếng Bengal và tiếng Marathi.

Năm 2017, Ấn Độ đã vượt qua Hoa Kỳ trở thành quốc gia có lượng khán giả tiềm năng lớn nhất trên thế giới cho các quảng cáo trên Facebook, với 240 triệu người dùng hoạt động, trên mỗi con số mà họ báo cáo cho các nhà quảng cáo.

Kết quả hình ảnh cho facebook bị chỉ trích

Facebook cũng gửi cho chúng tôi bản tuyên bố này, được quy cho người phát ngôn:

"Chúng tôi muốn Facebook trở thành một nơi an toàn cho tất cả mọi người kết nối và thể hiện bản thân, và chúng ta tìm kiếm để bảo vệ quyền lợi của thiểu số và cộng đồng bên lề xã hội trên toàn thế giới, kể cả ở Ấn Độ. Chúng tôi có các quy tắc rõ ràng chống lại lời nói căm thù, mà chúng tôi xác định là các cuộc tấn công chống lại mọi người trên cơ sở những thứ như đẳng cấp, quốc tịch, dân tộc và tôn giáo, và phản ánh đầu vào mà chúng tôi nhận được từ các chuyên gia ở Ấn Độ. Chúng tôi thực hiện việc này rất nghiêm túc và loại bỏ nội dung vi phạm những chính sách này ngay khi chúng tôi nhận thức được nó. Để thực hiện điều này, chúng tôi đã đầu tư vào nhận xét nội dung chuyên dụng, người có chuyên môn ngôn ngữ địa phương và sự hiểu biết về những căng thẳng lịch sử và xã hội lâu đời của Ấn Độ. Chúng tôi cũng đã đạt được tiến bộ đáng kể trong việc chủ động phát hiện ngôn từ kích động thù địch trên các dịch vụ của mình, điều này giúp chúng tôi có được nội dung có khả năng gây hại nhanh hơn.

Nhưng những công cụ này vẫn chưa hoàn hảo và các báo cáo từ cộng đồng của chúng tôi vẫn cực kỳ quan trọng. Đó là lý do chúng tôi rất biết ơn Avaaz cho việc chia sẻ những phát hiện của họ với chúng tôi. Chúng tôi đã xem xét cẩn thận nội dung mà họ đã gắn cờ và xóa mọi nội dung vi phạm chính sách của chúng tôi. Chúng tôi sẽ tiếp tục làm việc để ngăn chặn sự lây lan của bài phát biểu ghét về các dịch vụ của chúng tôi, cả hai ở Ấn Độ và trên toàn thế giới."


Facebook đã không cho chúng tôi biết chính xác có bao nhiêu người nó sử dụng nội dung cảnh sát cho một nhà nước Ấn Độ với dân số hơn 30 triệu người.

Trên toàn cầu, công ty duy trì có khoảng 35.000 người làm việc dựa trên niềm tin và sự an toàn, chưa đến một nửa trong số đó (~ 15.000) là những người đánh giá nội dung chuyên dụng. Nhưng với lực lượng đánh giá nội dung nhỏ như vậy cho một nền tảng toàn cầu với người dùng 2.2BN + đăng tải cả ngày lẫn đêm trên khắp thế giới, không có cách nào hợp lý để nó đứng đầu trong vấn đề ngôn luận thù hận.

Chắc chắn không phải ở mọi thị trường mà nó hoạt động. Đó là lý do tại sao Facebook dựa rất nhiều vào AI - thu nhỏ chi phí cho hoạt động kinh doanh của mình nhưng lại đặt rủi ro liên quan đến nội dung lên mọi người khác.

Facebook tuyên bố các công cụ tự động để phát hiện ngôn từ kích động thù địch đã trở nên tốt hơn, cho biết trong quý 1 năm nay, công ty đã tăng tỷ lệ phát hiện chủ động đối với ngôn từ kích động thù địch lên 65,4% - tăng từ 58,8% trong quý 4 năm 2017 và 38% trong quý 2/2017.

Tuy nhiên, họ cũng nói rằng họ chỉ loại bỏ 4 triệu bài phát biểu thù hận trên toàn cầu trong Q1. Nghe có vẻ cực kỳ nhỏ so với kích thước của nền tảng của Facebook và khối lượng nội dung sẽ được tạo ra hàng ngày bởi hàng triệu và hàng triệu người dùng hoạt động.

Các công cụ dành cho các nhà nghiên cứu độc lập truy vấn nội dung và lan truyền nội dung trên nền tảng của Facebook, tôi chỉ đơn giản là không thể biết có bao nhiêu phần phát ngôn thù hận sẽ không bị phát hiện. Nhưng - để rõ ràng - công ty không được kiểm soát này vẫn được đánh dấu bài tập về nhà của riêng mình.

Chỉ trong một ví dụ về cách Facebook có thể thu hẹp nhận thức về khối lượng nội dung có vấn đề mà nó đang đấu tranh, trong số 213 nội dung liên quan đến Assam và NCR mà Avaaz đánh giá là ghét ngôn luận và báo cáo với Facebook rằng nó đã xóa chưa đến một nửa ( 96).

Tuy nhiên, Facebook cũng nói với chúng tôi rằng họ gỡ bỏ tất cả nội dung vi phạm các tiêu chuẩn cộng đồng của mình - cho thấy họ đang áp dụng một định nghĩa loãng hơn về ngôn từ kích động thù địch so với Avaaz. Không có gì đáng ngạc nhiên đối với một công ty Mỹ có điều lệ của hội đồng đánh giá nội dung PR mới bao gồm cụm từ biểu hiện miễn phí là tối quan trọng. Nhưng đối với một công ty cũng tuyên bố muốn ngăn chặn xung đột và xây dựng hòa bình thì điều đó khá mâu thuẫn, phải nói là ít nhất.

Như mọi thứ, các số liệu hiệu suất lời nói tự ghét của Facebook là vô nghĩa. Bất cứ ai bên ngoài công ty cũng không thể định lượng hoặc đánh giá dữ liệu nền tảng. Bởi vì không ai ngoại trừ Facebook có bức tranh đầy đủ - và nó không mở nền tảng cho kiểm toán dân tộc. Ngay cả khi tác động của những thứ độc hại, đáng ghét lan truyền trên Facebook vẫn tiếp tục chảy máu và gây thiệt hại cho cuộc sống trên toàn thế giới.

Bài viết được dịch từ đây bởi Google Dịch

Comments

Top bài đăng tuần qua

Seri MMO - Bài 4: Làm tiếp thị liên kết

Dini Blog | Nạn đăng tải lại (reup) trên YouTube

Cười lớn lên (LOL) - Phần 28