Mytour blogimg_logo
27/12/2023140

ChatGPT Đang Thay Đổi Cách Làm Việc Cộng Đồng năm 2025

Chúng ta nên biết ơn sự hiểu biết về hành vi con người, một phần nhờ vào Bob. Anh ấy dành hàng giờ một số ngày để làm đối tượng trong các nghiên cứu tâm lý học học thuật, điền các cuộc khảo sát trên các nền tảng làm việc cộng đồng như Amazon Mechanical Turk, nơi người dùng thực hiện các nhiệm vụ kỹ thuật số đơn giản để nhận một số tiền nhỏ. Các bảng câu hỏi thường khiến anh ấy nhớ lại những lúc anh ấy cảm thấy buồn bã, cô đơn, hoặc một cái gì đó tương tự u sầu. Đôi khi việc gõ những câu chuyện buồn đi buồn lại “thật sự rất nhàm chán,” anh ấy nói. Vì vậy, Bob nhờ ChatGPT đổ lòng ra thay mình.

Bob, người sử dụng một bút danh vì anh ấy sợ có thể bị đình chỉ tài khoản, nói rằng anh ấy tôn trọng nghiên cứu mà anh ấy đóng góp nhưng không cảm thấy đặc biệt xung đột khi sử dụng sự hỗ trợ đôi khi từ trí tuệ nhân tạo. Các bảng câu hỏi dường như được thiết kế để thiết lập một tâm trạng cụ thể để chuẩn bị cho những câu hỏi sau này, và “Tôi có thể tự đưa mình vào tâm trạng đó,” anh ấy nói. Ngoài ra, Bob cần phải hiệu quả vì anh ấy tự nuôi sống bản thân thông qua công việc cộng đồng, đôi khi điền đến 20 cuộc khảo sát trong một ngày, cùng với các nhiệm vụ nhỏ khác như đào tạo chatbot. Một nghiên cứu năm 2018 ước tính rằng người làm việc cộng đồng kiếm 2 đô la mỗi giờ trung bình, bao gồm thời gian tìm kiếm nhiệm vụ, tuy nhiên Bob kiếm được nhiều hơn nhiều.

Sinh viên, nhân viên văn phòng, lập trình viên và những người làm chủ nhân vật trong các trò chơi hầm ngục đang chuyển sang các công cụ trí tuệ nhân tạo sinh sáng như ChatGPT để tối ưu hóa công việc của họ theo cách đã gọi là lời khen và nghi ngờ. Người làm việc cộng đồng là nhóm mới nhất bị buộc tội sử dụng các mô hình ngôn ngữ lớn như một con đường tắt. Một số nền tảng hiện đang áp dụng chính sách hoặc công nghệ nhằm ngăn chặn hoặc phát hiện việc sử dụng các mô hình ngôn ngữ lớn như ChatGPT, tuy nhiên một số người làm việc cộng đồng và nhà nghiên cứu nói rằng cần phải cẩn trọng để tránh đặt gánh nặng không công bằng cho những người lao động đang phải đối mặt với sự không chắc chắn.

Một nghiên cứu trước in từ các học giả tại Viện Công nghệ Liên bang Thụy Sĩ trở nên lan truyền mạnh mẽ tháng trước sau khi ước tính rằng hơn một phần ba người làm việc trên Mechanical Turk đã sử dụng ChatGPT để hoàn thành một nhiệm vụ tóm tắt văn bản dự kiến để đo lường sự hiểu biết con người. Tuyên bố rằng người làm việc cộng đồng rộng rãi sử dụng các mô hình ngôn ngữ lớn đã truyền cảm hứng cho một số người làm việc và nhà nghiên cứu phản đối lại, bảo vệ danh dự của người làm việc cộng đồng và nói rằng hướng dẫn rõ ràng có thể kiềm chế vấn đề.

CloudResearch, một công ty giúp các nhà nghiên cứu tuyển chọn người tham gia nghiên cứu trực tuyến, đã tiến hành phiên bản riêng của nghiên cứu và phát hiện rằng những người làm việc được lọc trước của họ chỉ sử dụng ChatGPT một phần năm thời gian. Việc sử dụng gần như hoàn toàn biến mất khi công ty yêu cầu mọi người không sử dụng trí tuệ nhân tạo, theo Leib Litman, đồng sáng lập kiêm giám đốc nghiên cứu chính của công ty.

Một người làm việc cộng đồng trong độ tuổi năm chục của mình, hoạt động trong một cộng đồng trực tuyến của người làm việc Turkers, nói rằng nhiều người không muốn gian lận. “Những người tôi biết có tính chính trực đến mức quá mức,” cô nói. Công việc cộng đồng có thể mang lại nơi trú ẩn cho những người muốn sắp xếp công việc theo điều kiện của họ, cô nói, như những người hướng nội hoặc người có sự chệch lệch thần kinh. “Họ không bao giờ nghĩ đến việc sử dụng ChatGPT để viết một bản tóm tắt, vì nó sẽ rất không thoải mái,” người làm việc, người thích công việc cộng đồng như một cách để tránh đối mặt với phân biệt đối xử về tuổi tác, nói.

Mặc dù một số người làm việc có thể tránh trí tuệ nhân tạo, sự cám dỗ để sử dụng nó là rất thực tế đối với những người khác. Lĩnh vực này có thể là “ăn thịt chó,” Bob nói, khiến các công cụ tiết kiệm lao động trở nên hấp dẫn. Để tìm kiếm các công việc trả tiền tốt nhất, người làm việc cộng đồng thường sử dụng kịch bản để đánh dấu nhiệm vụ có lợi, tìm kiếm đánh giá của người yêu cầu nhiệm vụ, hoặc tham gia các nền tảng trả tiền tốt hơn kiểm tra người làm việc và người yêu cầu.

CloudResearch bắt đầu phát triển một bộ phát hiện ChatGPT nội bộ vào năm ngoái sau khi các nhà sáng lập thấy tiềm năng của công nghệ này có thể làm suy giảm doanh nghiệp của họ. Cofounder và CTO Jonathan Robinson nói rằng công cụ này liên quan đến việc bắt các phím chính, đặt câu hỏi mà ChatGPT trả lời khác biệt so với con người, và liên kết con người để xem xét các phản hồi văn bản tự do.

Người khác cho rằng các nhà nghiên cứu nên tự thiết lập niềm tin. Justin Sulik, một nhà nghiên cứu khoa học kognitif tại Đại học Munich sử dụng CloudResearch để tìm người tham gia, nói rằng sự tốt lành cơ bản—trả công công bằng và giao tiếp trung thực—đi rất xa. Nếu người làm việc tin rằng họ vẫn sẽ nhận được tiền, người yêu cầu có thể đơn giản hỏi ở cuối cuộc khảo sát xem người tham gia đã sử dụng ChatGPT hay không. “Tôi nghĩ người làm việc trực tuyến đang bị buộc tội không công bằng vì làm những điều mà nhân viên văn phòng và học giả có thể làm liên tục, đó là tối ưu hóa công việc của chúng ta,” Sulik nói.

Ali Alkhatib, một nhà nghiên cứu về tính xã hội của máy tính, đề xuất rằng có thể hiệu quả hơn nếu xem xét cách trả công không đủ cho người làm việc cộng đồng có thể thúc đẩy việc sử dụng các công cụ như ChatGPT. “Nhà nghiên cứu cần tạo ra một môi trường cho phép người làm việc dành thời gian và thực sự suy ngẫm,” anh nói. Alkhatib trích dẫn công việc của các nhà nghiên cứu tại Stanford đã phát triển một dòng mã theo dõi thời gian mà một microtask mất để người yêu cầu có thể tính toán cách trả một mức lương tối thiểu.

Thiết kế nghiên cứu sáng tạo cũng có thể giúp ích. Khi Sulik và đồng nghiệm muốn đo lường hiện tượng ảo tưởng nhất định, một niềm tin vào mối quan hệ nhân quả giữa các sự kiện không liên quan, họ yêu cầu người tham gia di chuyển một con chuột hoạt hình xung quanh một lưới và sau đó đoán xem quy tắc nào giành được phần thưởng pho mát. Những người dễ tin vào ảo tưởng chọn nhiều quy tắc giả tưởng hơn. Một phần ý định của thiết kế là giữ cho mọi thứ thú vị, Sulik nói, để những người như Bob không bao giờ bị lạc lõng. “Và không ai sẽ đào tạo một mô hình AI chỉ để chơi trò chơi nhỏ của bạn cả,” anh nói.

Sự nghi ngờ được truyền cảm từ ChatGPT có thể làm cho công việc cộng đồng trở nên khó khăn hơn, người làm việc đã phải chú ý đối mặt với lừa đảo phishing thu thập dữ liệu cá nhân thông qua các nhiệm vụ giả mạo và dành thời gian không trả tiền để tham gia các bài kiểm tra đủ điều kiện. Sau một sự gia tăng về dữ liệu chất lượng thấp vào năm 2018 đã gây ra sự hoang mang về bot trên Mechanical Turk, nhu cầu về các công cụ giám sát để đảm bảo người làm việc là những người họ tuyên bố đã tăng lên.

Phelim Bradley, Giám đốc điều hành của Prolific, một nền tảng công việc cộng đồng đặt tại Anh kiểm tra người tham gia và người yêu cầu, cho biết công ty của ông đã bắt đầu làm việc vào một sản phẩm để xác định người dùng ChatGPT và hoặc giáo dục hoặc loại bỏ họ. Nhưng ông phải tuân thủ các quy tắc của Luật bảo vệ dữ liệu chung của Liên minh châu Âu. Một số công cụ phát hiện “có thể khá xâm phạm nếu chúng không được thực hiện với sự đồng thuận của người tham gia,” ông nói.

Các bộ phát hiện cũng có thể không chính xác và có thể trở nên không hiệu quả khi các trình tạo văn bản tiếp tục cải thiện. Các công cụ phổ biến như công ty startup GPTZero thường xuyên không thể xác định đúng văn bản được viết bởi trí tuệ nhân tạo, và những kết quả dương giả rủi ro trừng phạt những người làm việc trung thực. Các học giả Thụy Sĩ đứng sau nghiên cứu gần đây về người làm việc cộng đồng và ChatGPT thấy rằng một bộ phát hiện sẵn có hoạt động kém và thay vào đó xây dựng hệ thống của riêng họ để nhận biết việc sử dụng ChatGPT có liên quan đến ghi lại các phím, mà họ thừa nhận “có thể xâm phạm quyền riêng tư của người dùng nếu không được xử lý đúng cách.”

Sự nghi ngờ hoặc không chắc chắn về việc người làm việc cộng đồng chuyển sang trí tuệ nhân tạo để được giúp đỡ có thể làm giảm lượng công việc cộng đồng. Veniamin Veselovsky, một nhà nghiên cứu làm đồng tác giả của nghiên cứu Thụy Sĩ, nói rằng anh và những người khác đang xem xét lại các loại nghiên cứu họ thực hiện trực tuyến. “Có một loạt các thí nghiệm mà chúng ta không thể tiến hành trên Mechanical Turk nữa,” anh nói.

Gabriel Lenz, một giáo sư khoa học chính trị tại Đại học California, Berkeley nghiên cứu trên nền tảng, lạc quan hơn. Giống như hầu hết các nghiên cứu, của ông bao gồm các câu hỏi được thiết kế để bắt gặp những người tham gia không chú ý hoặc đưa ra các phản ứng không nhất quán đối với những câu hỏi quan trọng, và ông tưởng tượng các công cụ để bắt người dùng mô hình ngôn ngữ lớn như đánh dấu nước sẽ phát triển.

Thường thì gian lận chỉ tạo ra nhiễu có thể được lọc ra khỏi một nghiên cứu, Lenz nói. Nhưng nếu những kẻ gian lận sử dụng trí tuệ nhân tạo thay vì tạo ra dữ liệu thỏa mãn những gì một nhà nghiên cứ đang tìm kiếm, các nghiên cứu có thể cần phải được thiết kế lại hoặc thực hiện ngoại tuyến. Năm ngoái, các nhà nghiên cứu phát hiện rằng những tuyên bố được lan truyền rộng rãi về sự ủng hộ của người Mỹ cho bạo lực chính trị có vẻ đã được nói quá mức, do phần nào là do thiết kế khảo sát không tính đến việc nhấp ngẫu nhiên từ người tham gia buồn chán.

Hậu quả của việc không phát hiện ra sự gian lận được hỗ trợ bởi trí tuệ nhân tạo có thể rất lớn. Dữ liệu kém có thể làm méo mó hiểu biết của chúng ta về thế giới thông qua việc lọt vào nghiên cứu được công bố, hoặc thậm chí biến dạng các hệ thống trí tuệ nhân tạo trong tương lai, thường được tạo ra bằng dữ liệu từ người làm việc cộng đồng được cho là chính xác. Giải pháp có thể chủ yếu nằm trong lĩnh vực con người. “Xây dựng niềm tin đơn giản hơn là tham gia vào cuộc đua vũ khí trí tuệ nhân tạo với các thuật toán phức tạp hơn để phát hiện văn bản trí tuệ nhân tạo ngày càng phức tạp hơn,” Sulik nói.

Trần Minh Hoạt

0 Thích

Đánh giá : 4.3 /270