Mytour blogimg_logo
27/12/202380

Việc Định Nghĩa 'Ngôn Ngữ Gây Ghét' Trực Tuyến Là Một Nghệ Thuật Không Hoàn Hảo năm 2025

Ngay sau khi một cuộc tụ tập của những người ủng hộ phong trào ái quốc ở Charlottesville, Virginia, dẫn đến cái chết của một người chống đối, YouTube đã xóa video về binh sĩ Mỹ phá hủy biểu tượng chữ Hakenkreuz Nazi vào năm 1945. Thay vào đó, người dùng thấy một thông báo nói rằng video đã bị “xóa vì vi phạm chính sách về ngôn ngữ gây ghét của YouTube.”

Gần đây, một bài viết từ trang web neo-Nazi Daily Stormer tấn công Heather Heyer, người phụ nữ 32 tuổi bị giết trong cuộc biểu tình, đã được chia sẻ 65,000 lần trên Facebook trước khi Facebook bắt đầu xóa các liên kết đến bài viết một ngày sau đó vì vi phạm các tiêu chuẩn cộng đồng của nó về ngôn ngữ gây ghét. Sau thời điểm đó, Facebook chỉ cho phép liên kết đến bài viết nếu kèm theo chú thích chỉ trích bài viết hoặc tờ báo, công ty nói.

Hai sự cố này làm nổi bật một thách thức lớn cho các công ty công nghệ khi họ ngần ngại sâu hơn trong việc kiểm soát nội dung. Để giúp sắp xếp hàng loạt tư liệu, các nhà điều hành nền tảng ngày càng phụ thuộc vào thuật toán máy tính. Nhưng những chương trình phần mềm này là công cụ không hoàn hảo để đánh giá những sự tinh tế có thể phân biệt từng từ hoặc hình ảnh chấp nhận từ những từ hoặc hình ảnh không chấp nhận.

Quyết định của YouTube về việc xóa video chữ Hakenkreuz Nazi trong Chiến tranh thế giới II đã gây ra nhiều chỉ trích mạnh mẽ trực tuyến, với nhiều người chỉ trích máy tính. “Nếu bạn có thể sa thải một con người có tính chất phân biệt giới, Google, bạn cũng có thể sửa một thuật toán Nazi,” nói trang web văn hóa Boing Boing, đề cập đến việc sa thải gần đây của James Damore, tác giả một bản ghi chú chỉ trích các chương trình đa dạng của Google.

YouTube đã khôi phục video và thừa nhận sai lầm vài giờ sau đó. "YouTube là một nền tảng mạnh mẽ để ghi lại các sự kiện thế giới, và chúng tôi có chính sách rõ ràng về nội dung nào là chấp nhận được để đăng,” một người phát ngôn của YouTube nói. “Với lượng lớn video trên trang web của chúng tôi, đôi khi chúng tôi đưa ra quyết định sai lầm. Khi người ta thông báo cho chúng tôi biết rằng một video hoặc kênh đã bị xóa nhầm lẫn, chúng tôi nhanh chóng khôi phục nó."

Xét xử ranh giới của nội dung chấp nhận được trên các nền tảng công nghệ toàn cầu là một nhiệm vụ khổng lồ. Mỗi phút, khoảng 400 giờ nội dung được tải lên YouTube. Facebook có hơn 2 tỷ người dùng đăng bài cập nhật, bình luận và video. Ngày càng, những công ty này phụ thuộc vào phần mềm. Instagram thuộc sở hữu của Facebook gần đây đã giới thiệu một thuật toán để loại bỏ những bình luận từ những người làm phiền. Cả YouTube và Facebook đều đã triển khai phần mềm để lọc nội dung liên quan đến khủng bố. YouTube cung cấp nội dung chống ISIS cho người dùng tìm kiếm video liên quan đến ISIS bằng một công cụ được biết đến là Phương pháp Chuyển hướng. Facebook nói rằng nó có thể xác định và loại bỏ các nhóm người dùng có thể có liên quan đến khủng bố.

Nhưng phần mềm vẫn còn không hoàn hảo, và vì vậy, con người gần như luôn luôn tham gia. YouTube nói rằng họ có thể sử dụng thuật toán để xác định liệu nội dung được đánh dấu để xem xét có nên được ưu tiên cao hơn cho một người xem xét. Nhưng luôn có một con người quyết định liệu có nên rút điều gì đó khỏi nền tảng.

Các nhà nghiên cứu cho biết các chương trình trí tuệ nhân tạo phân tích nội dung ngày càng được cải thiện. Tuy nhiên, họ nói rằng những chương trình này vẫn còn rất xa khỏi việc hiểu bối cảnh xung quanh từng từ hoặc hình ảnh, điều này sẽ cho phép chúng đưa ra quyết định lọc một cách tự động. “Hiểu bối cảnh thực sự đề xuất, trong tình huống hiểu biết tối kỵ nhất, rằng bạn hiểu thế giới và mọi thứ trong nó,” Dennis Mortensen, Giám đốc điều hành và người sáng lập x.ai, một công ty khởi nghiệp cung cấp trợ lý cá nhân trực tuyến hẹn giờ nói. “Chúng ta còn rất xa để máy móc đạt được điều này.” Bart Selman, giáo sư khoa học máy tính tại Cornell, nói rằng con người sẽ cần giúp đỡ máy móc “ít nhất là thêm một thập kỷ nữa.”

Jana Eggers, Giám đốc điều hành của Nara Logics, một công ty khởi nghiệp tích hợp trí tuệ nhân tạo vào phần mềm của mình cho các công ty, sử dụng video Nazi Chiến tranh thế giới II để giải thích thách thức viết các quy tắc vào phần mềm. “Công nghệ ở một trạng thái tùy ý: cứ mọi thứ Nazi đều loại bỏ,” cô nói. Những sai lầm như của YouTube sẽ thúc đẩy một sửa đổi: “Mọi thứ Nazi loại bỏ, trừ khi từ góc độ lịch sử.” Sau đó, có người sẽ chỉ đến video lịch sử pro-Nazi. “Chúng ta sẽ có một bản lặp lại khác: mọi thứ Nazi loại bỏ trừ khi từ góc độ lịch sử và không phải là pro-Nazi. Sau đó, có người sẽ chỉ ra rằng công trình của Leni Riefenstahl—một ví dụ lịch sử về tuyên truyền—đã bị cấm.” Liệu chúng ta có nên loại bỏ nội dung đang được sử dụng trong bối cảnh kêu gọi những người theo trường phái neo-Nazi hiện tại? Có lẽ. Nhưng liệu chúng ta cũng nên bảo tồn các ví dụ lịch sử về tuyên truyền vì mục đích giáo dục hoặc mục đích khác? Đó là một quyết định khó khăn mà trí tuệ nhân tạo hiện chưa thể đưa ra.

Vậy tại sao người quản trị hệ thống đề xuất rằng video Nazi lịch sử nên bị loại bỏ? Họ cũng có thể thiếu bối cảnh. “Mọi người trở nên nhạy cảm, và nếu họ không hiểu biết văn hóa về ý nghĩa của sự phá hủy đó đối với người dân, thì họ không hiểu tầm quan trọng của việc thấy sự phá hủy đó,” Eggers nói. Cô so sánh trạng thái của đánh giá nội dung với mô tả về vấn đề khiếm khuyết về đồng tính của Bộ Tư pháp Tòa án Tối cao ngày xưa của Potter Stewart: “Tôi biết khi tôi nhìn thấy nó.”

Hơn nữa, lượng lớn nội dung đồng nghĩa với việc người đánh giá phải hành động nhanh chóng, tăng cơ hội phạm lỗi. Mortensen, của x.ai, nói rằng người đánh giá được đào tạo nhanh chóng về hướng dẫn cho nội dung cho phép, sau đó được bảo quét video thay vì xem chúng từ đầu đến cuối. “Trong bối cảnh này, thậm chí cùng một con người cũng sẽ đánh giá nội dung một cách không nhất quán—tức là, sẽ không bao giờ có tỷ lệ đồng thuận 100%,” ông nói.

Trần Minh Hoạt

0 Thích

Đánh giá : 4.3 /586