Trong một số trường hợp, như quảng bá khủng bố, Facebook cho biết nó nhận diện được nhiều nội dung không phù hợp hơn do hệ thống tự động của nó để phát hiện bài đăng như vậy đã cải thiện. Alex Schultz, phó chủ tịch phụ trách phân tích dữ liệu, nói rằng Facebook đã áp dụng các công cụ cho nội dung đã "tồn tại lâu nay." Nhưng Schultz nói rằng sự gia tăng của bài đăng có bạo lực đồ họa phản ánh sự thay đổi trong thế giới. "Một giả thuyết tốt chúng tôi có, mặc dù điều này không chắc chắn, là điều gì đang diễn ra ở Syria. Khi có chiến tranh, nhiều nội dung bạo lực hơn được tải lên Facebook," ông nói.
Facebook cho biết nó hiện có khả năng đánh dấu hơn 95 phần trăm bài đăng quảng bá khủng bố, chứa nội dung nude và hoạt động tình dục người lớn, rác, hoặc tài khoản giả mạo trước khi người dùng báo cáo những bài đăng đó; đối với bạo lực đồ họa, con số đó là hơn 85 phần trăm.
Nhưng Facebook nói rằng nó còn một quãng đường dài để đi khi nói đến việc đánh dấu lời nói ghê tởm, nơi hệ thống của nó chỉ nhận diện được 38 phần trăm bài đăng không phù hợp trước khi người dùng làm. Để minh họa điểm này, Schultz đã sử dụng chính bản thân mình làm ví dụ. Schultz nói rằng hồ sơ Facebook của ông làm cho nó rõ ràng rằng ông là người đồng tính. "Nếu tôi sử dụng từ 'f,' có thể là được, nhưng nếu người khác sử dụng nó đối với tôi, thì không ổn," Schultz nói. "Nhưng đối với mọi người, bạn không thể nhất thiết biết [tình dục], và vì vậy nó trở nên khá khó khăn."
Tổng cộng, Facebook nói rằng nó đã hành động đối với hơn 860 triệu mảnh nội dung trong quý đầu tiên. Đa số lớn trong số đó---837 triệu---liên quan đến rác. Facebook nói rằng nó cũng đã vô hiệu hóa 583 triệu tài khoản giả mạo trong quý đầu tiên, giảm 16 phần trăm so với quý trước. Facebook ước tính rằng 3 đến 4 phần trăm trong số 2.2 tỷ người dùng hàng tháng của nó là tài khoản giả mạo.
Báo cáo thi hành vào thứ Ba là một sự tiếp theo liên quan đến một sự kiện đầu tiên của Facebook. Vào tháng 4, công ty đã tiết lộ lần đầu tiên các hướng dẫn nội bộ của mình về những gì người dùng không thể đăng. Trong cả hai trường hợp, các sự tiết lộ của Facebook là tự nguyện và đại diện cho một bước tiến lớn từ sự bí mật và nhầm lẫn xung quanh việc kiểm duyệt đã làm phiền bức người dùng Facebook suốt nhiều năm.
Các con số về việc thi hành này làm nổi bật cả quy mô chưa từng có của thách thức kiểm duyệt của Facebook và giới hạn về mức độ minh bạch mà người tiêu dùng có thể mong đợi từ Facebook.
Ví dụ, một phần lớn của báo cáo 86 trang giải thích phương pháp đo lường sự phổ biến của Facebook. Facebook tập trung vào số lần một mảnh nội dung không phù hợp đã được xem so với tổng số nội dung mà một người dùng đã xem. Để xác định sự phổ biến, Schultz nói: "Chúng tôi cố gắng lấy mẫu từ mọi thứ được nhìn thấy trên Facebook và xem nó với những người đánh giá con người, và họ gắn thẻ: [Đây có phải] vi phạm hay không?" Các nhà điều hành nói rằng phương pháp này có thể thay đổi trong các báo cáo sau này.
Tuy nhiên, Facebook từ chối thảo luận về nơi mà những người đánh giá này đặt cơ sở hay cách họ được đào tạo. Công ty nói rằng có 10.000 người làm việc trong các vấn đề này và kế hoạch làm đến 20.000 vào cuối năm 2018; một số trong số đó sẽ là nhân viên hợp đồng, công ty nói.
Báo cáo xuất hiện trong bối cảnh Facebook đang phải đối mặt với áp lực gia tăng để giải thích sự phổ biến của nội dung đáng lo ngại. Chỉ trong vài tuần qua, các bản tin đã nêu lên vấn đề về việc Facebook không kiểm soát được các bài đăng kích động bạo lực chống lại người Rohingya ở Myanmar, video tuyển dụng cho các nhóm khủng bố có thể tìm kiếm dễ dàng, những người giả mạo Mark Zuckerberg cố gắng lừa đảo người dùng để lấy tiền của họ, và các bài đăng nơi danh tính bị đánh cắp và số An Sinh Xã Hội bị tiết lộ suốt nhiều năm.
Guy Rosen, phó chủ tịch quản lý sản phẩm, nói rằng Facebook đang cố gắng cải thiện khả năng phản ứng của mình tại Myanmar, một chủ đề mà các thành viên của Quốc hội đưa ra trong các phiên điều trần gần đây với Zuckerberg. “Đó là một tình huống cực kỳ khó khăn ở đó cho những người, và chúng tôi không muốn Facebook được sử dụng như một nơi có thể kích động bạo lực,” Rosen nói. Ông nói rằng Facebook đang tăng cường số lượng người đánh giá nói tiếng Burmese, đáp ứng các khiếu nại từ các nhóm xã hội dân sự cho biết các lời kêu cầu của họ đối với Facebook đã bị phớt lờ. Facebook cũng đang làm việc để cải thiện cách báo cáo nội dung không phù hợp trong Facebook Messenger, “đó là một phương tiện cho một số vấn đề ở Myanmar,” Rosen nói.
Facebook đang tăng cường mối quan hệ với các nhóm xã hội dân sự tại Myanmar, để hiểu rõ hơn về ngữ cảnh của xung đột, Rosen nói. “Nếu điều gì đó thực sự là một chiếc ống kèn thú cưng kích động bạo lực, và không rõ cách nào để hiểu điều đó, việc được làm việc với những đối tác này có thể giúp chúng tôi tìm ra những điều,” ông nói. “Chúng tôi đang cải thiện cách chúng tôi làm việc với họ để họ có thể đưa thông tin cho chúng tôi một cách đáng tin cậy hơn.”
Blake Reid, giáo sư thực hành cấp bậc tại Colorado Law và giám đốc của phòng thí nghiệm công nghệ và chính sách của trường, nói rằng quy mô của Facebook đã làm méo mó khái niệm về cộng đồng. “Facebook đã phát triển đến một quy mô và quy mô mà những tổn thương đáng kể sẽ đến với một tỷ lệ người dùng của nó dù cho phương pháp nào nó áp dụng để kiểm soát nội dung. Mọi điều chỉnh nó thực hiện đều có khả năng ảnh hưởng đến bầu cử, lan truyền chính trị, hiệu quả chận trở biểu đạt, hoặc gây ra các hiệu ứng tương tự về mức độ,” Reid nói. “Do đó, các chi tiết về cách Facebook kiểm duyệt nội dung ít quan trọng hơn so với cách các chính phủ trên thế giới chọn cách kiểm soát kích thước và quyền lực của Facebook.”
In the absence of government intervention, Reid nói rằng, Facebook sẽ đặt ra quy tắc cho một phần quan trọng của dân số thế giới. “Thường thì, điều này thuộc phạm vi của các quốc gia và các tổ chức dân chủ liên quan của họ,” ông nói. “Ý kiến rằng chúng ta sẽ giao quyền lực làm điều đó cho một công ty mà thậm chí không đối mặt với những hạn chế cạnh tranh đáng kể, chưa kể đến sự chịu trách nhiệm dân chủ đối với người dùng của nó, là vô cùng lo lắng.”
Các báo cáo minh bạch giúp người dùng hiểu quy trình nội bộ của một công ty nhưng không nhất thiết đẩy công ty phải hoạt động khác biệt. “Một số cách, các báo cáo minh bạch là một van an toàn giảm áp lực cho những thay đổi thiết thực hơn,” nói Tarleton Gillespie, một nghiên cứu viên chính tại Microsoft Research New England, giảng viên thỉnh giảng tại Đại học Cornell, và tác giả của cuốn sách sắp tới Custodians of the Internet: Platforms, Content Moderation, and the Hidden Decisions that Shape Social Media.
Gillespie nói rằng áp lực từ những nhà hoạt động, nhà nghiên cứu và những người lập pháp đã thúc đẩy các công ty công nghệ mở rộng sự tiết lộ ngoài các báo cáo về yêu cầu của chính phủ để loại bỏ nội dung. “Nhưng nghĩa vụ quy định về việc báo cáo gì, được áp đặt trên cả ngành công nghiệp, sẽ mạnh mẽ hơn nhiều,” Tarleton nói.
Amazon đối đầu với Seattle khi tìm kiếm một ngôi nhà thứ hai
Backdoor này "điều trí tuệ ma quỷ" ẩn trong một phần nhỏ của vi mạch máy tính
Sự nổi lên và cảm giác của khiếm thị ảo trong ngành công nghiệp giải trí cho người trưởng thành
Đạo diễn Andrew Niccol sống trong Truman Show riêng của mình (và bạn cũng vậy)
Vũ khí mini tên lửa của Lockheed Martin chống drone nặng chỉ 5 pounds
0 Thích