Hiện nay đã có sự hiểu biết rõ ràng rằng trí tuệ nhân tạo sáng tạo sẽ gia tăng việc lan truyền thông tin sai lệch trên internet. Từ video giả mạo đến các bài báo tin giả và các trình điều khiển tự động, trí tuệ nhân tạo sẽ tạo ra không chỉ thông tin sai lệch hơn mà còn là thông tin sai lệch thuyết phục hơn. Nhưng điều mà người ta chỉ mới bắt đầu hiểu là thông tin sai lệch sẽ trở nên có tính cá nhân hóa hơn và có khả năng tương tác tốt hơn với người dùng, ảnh hưởng đến quan điểm của họ.
Khi Nga cố gắng ảnh hưởng đến cuộc bầu cử Tổng thống Hoa Kỳ năm 2016 thông qua Cơ quan Nghiên cứu Internet đã bị giải tán, các hoạt động này do con người điều hành thường ít có sự thành thạo văn hóa hoặc thậm chí là tiếng Anh nên không luôn có thể liên quan đến các nhóm họ nhắm đến. Với công cụ trí tuệ nhân tạo sáng tạo, những chiến dịch thông tin sai lệch sẽ có khả năng điều chỉnh cách tiếp cận của họ thông qua việc phân loại cá nhân và các nhóm. Những người thực hiện có thể sản xuất nội dung có vẻ hợp lý và dễ chấp nhận với người nhận và thậm chí còn có thể nhắm đến cá nhân bằng thông tin sai lệch được cá nhân hóa dựa trên dữ liệu họ đã thu thập. Trí tuệ nhân tạo sáng tạo cũng sẽ làm cho việc tạo thông tin sai lệch dễ dàng hơn và do đó tăng lượng thông tin sai lệch đang tự do lan truyền trên internet, các chuyên gia cho biết.
“Trí tuệ nhân tạo sáng tạo giảm thiểu rào cản tài chính để tạo nội dung phù hợp với một số đối tượng nhất định,” Kate Starbird, giáo sư cộng tác tại Bộ môn Thiết kế và Kỹ thuật Tập trung vào Con người tại Đại học Washington nói. “Bạn có thể điều chỉnh nó để phù hợp với đối tượng và đảm bảo câu chuyện chạm đến giá trị và niềm tin của đối tượng đó, cũng như phần chiến lược của câu chuyện.”
Thay vì chỉ tạo ra một số ít bài viết mỗi ngày, Starbird cho biết, “Bạn thực sự có thể viết một bài viết và tùy chỉnh cho 12 đối tượng khác nhau. Mất năm phút cho mỗi đối tượng.”
Xem xét lượng nội dung mà mọi người đăng lên mạng xã hội và các nền tảng khác, việc thu thập dữ liệu để xây dựng chiến dịch thông tin sai lệch rất dễ dàng. Một khi những người thực hiện có khả năng phân loại các nhóm người khác nhau trong cả nước, họ có thể dạy hệ thống trí tuệ nhân tạo sáng tạo mà họ đang sử dụng để tạo ra nội dung tác động đến những mục tiêu này một cách rất tinh vi.
“Bạn sẽ thấy khả năng điều chỉnh tinh tế đó. Bạn sẽ thấy độ chính xác tăng lên. Bạn sẽ thấy tính liên quan tăng lên,” Renee Diresta, quản lý nghiên cứu kỹ thuật tại Quan sát Internet Stanford nói.
Hany Farid, giáo sư khoa học máy tính tại Đại học California, Berkeley, cho biết loại thông tin sai lệch tùy chỉnh này sẽ “lan tràn khắp nơi.” Mặc dù các nhân vật xấu sẽ có thể nhắm đến những nhóm người khi tiến hành một chiến dịch thông tin sai lệch quy mô lớn, họ cũng có thể sử dụng trí tuệ nhân tạo sáng tạo để nhắm đến từng cá nhân.
“Bạn có thể nói như thế này, ‘Đây là một loạt tweet từ người dùng này. Xin viết cho tôi một cái gì đó sẽ thu hút họ.’ Điều đó sẽ tự động hóa. Tôi nghĩ có lẽ điều đó sẽ đến,” Farid nói.
Những người phổ biến thông tin sai lệch sẽ thử nhiều chiến thuật cho đến khi họ tìm ra cái hoạt động tốt nhất, Farid nói, và nhiều điều đang diễn ra với những chiến dịch thông tin sai lệch này có lẽ không được hiểu rõ hoàn toàn cho đến sau một thời gian hoạt động. Ngoài ra, họ chỉ cần có hiệu quả một phần nhỏ để đạt được mục tiêu của họ.
“Nếu tôi muốn khởi động một chiến dịch thông tin sai lệch, tôi có thể thất bại 99 phần trăm. Bạn thất bại suốt thời gian, nhưng nó không quan trọng,” Farid nói. “Mỗi khi, thuyết âm mưu QAnon lại thành công. Hầu hết các chiến dịch của bạn có thể thất bại, nhưng những cái không thất bại có thể gây ra hỗn loạn.”
Farid cho biết chúng ta đã thấy trong chu kỳ bầu cử năm 2016 làm cách nào các thuật toán gợi ý trên các nền tảng như Facebook đã làm cho mọi người trở nên cực đoan và giúp lan truyền thông tin sai lệch và thuyết âm mưu. Trước cuộc bầu cử năm 2024 tại Mỹ, thuật toán của Facebook - một loại trí tuệ nhân tạo - có khả năng sẽ gợi ý một số bài viết được tạo bởi trí tuệ nhân tạo thay vì chỉ đẩy nội dung được tạo hoàn toàn bởi con người. Chúng ta đã đạt đến điểm mà trí tuệ nhân tạo sẽ được sử dụng để tạo thông tin sai lệch mà sau đó một trí tuệ nhân tạo khác sẽ gợi ý cho bạn.
“Chúng ta đã bị đánh lừa khá nhiều bởi nội dung chất lượng thấp. Chúng ta đang bước vào một giai đoạn nơi thông tin sai lệch và tuyên truyền sẽ cao cấp hơn,” Starbird nói. “Sẽ dễ dàng hơn để tạo ra nội dung dành cho từng đối tượng cụ thể hơn bao giờ hết trước đây. Tôi nghĩ chúng ta chỉ cần nhận ra rằng điều đó đã đến.”
Có thể làm gì với vấn đề này? Thật không may, chỉ có thể làm được một phần. Diresta nói rằng mọi người cần nhận thức về những mối đe dọa tiềm ẩn này và cẩn trọng hơn với nội dung họ tương tác. Ví dụ, bạn nên kiểm tra xem nguồn thông tin của bạn có phải là một trang web hoặc hồ sơ trên mạng xã hội được tạo ra rất gần đây không. Farid nói rằng các công ty trí tuệ nhân tạo cũng cần phải chịu áp lực để triển khai các biện pháp bảo vệ để giảm thông tin sai lệch được tạo ra tổng thể.
Chính quyền Biden gần đây đã đạt thỏa thuận với một số công ty trí tuệ nhân tạo lớn nhất - nhà sản xuất ChatGPT OpenAI, Google, Amazon, Microsoft và Meta - khuyến khích họ tạo ra các thanh chắn cụ thể cho các công cụ trí tuệ nhân tạo của họ, bao gồm kiểm tra bên ngoài các công cụ trí tuệ nhân tạo và đánh dấu nước của nội dung được tạo ra bởi trí tuệ nhân tạo. Những công ty trí tuệ nhân tạo này cũng đã tạo ra một nhóm tập trung vào việc phát triển các tiêu chuẩn an toàn cho các công cụ trí tuệ nhân tạo, và Quốc hội đang tranh luận về cách quy định về trí tuệ nhân tạo.
Mặc dù đã có những nỗ lực như vậy, trí tuệ nhân tạo đang tăng tốc nhanh hơn so với việc kiềm chế, và Silicon Valley thường không thực hiện đúng các cam kết chỉ phát hành sản phẩm an toàn, được kiểm tra. Và ngay cả khi một số công ty hành xử một cách có trách nhiệm, điều đó không có nghĩa là tất cả các nhà sản xuất trong lĩnh vực này sẽ hành động tương tự.
“Đây là câu chuyện cổ điển của 20 năm qua: Phóng công nghệ, xâm nhập vào quyền riêng tư của mọi người, gây ra hỗn loạn, trở thành các công ty có giá trị nghìn tỷ đô la, và sau đó nói, 'À, có một số chuyện xấu đã xảy ra,'” Farid nói. “Chúng ta đang lặp lại những sai lầm giống nhau, nhưng bây giờ nó được tăng cường mạnh mẽ vì chúng ta phát hành các sản phẩm này trên nền tảng của các thiết bị di động, mạng xã hội, và một tình hình hỗn loạn đã tồn tại từ trước.”
0 Thích