Mytour blogimg_logo
27/12/2023110

3 Cách để Thuần Phục ChatGPT năm 2025

Trong năm nay, chúng ta đã chứng kiến sự xuất hiện của các hệ thống trí tuệ nhân tạo sáng tạo mạnh mẽ có khả năng tạo hình ảnh và văn bản theo yêu cầu. 

Đồng thời, các cơ quan quản lý đang chuyển động. Châu Âu đang hoàn tất quy định trí tuệ nhân tạo của mình (Đạo luật AI), nhằm đặt ra những quy tắc nghiêm ngặt cho các hệ thống AI có rủi ro cao. Canada, Anh, Hoa Kỳ và Trung Quốc đều đã giới thiệu các cách tiếp cận riêng của họ để quản lý AI ảnh hưởng cao. Nhưng AI tổng quát dường như chỉ là một ý nghĩ sau cùng thay vì là trọng tâm chính. Khi các quy tắc quản lý mới của Châu Âu được đề xuất vào tháng 4 năm 2021, không có đề cập đến các mô hình cơ bản tổng quát, bao gồm cả AI sáng tạo. Gần như một năm và nửa sau đó, hiểu biết của chúng ta về tương lai của AI đã thay đổi một cách đáng kể. Một miễn trách nhiệm không chứng minh được của các mô hình cơ bản hiện nay đối với những đề xuất này sẽ biến các quy định về AI thành những con hổ giấy có vẻ mạnh mẽ nhưng không thể bảo vệ quyền cơ bản.

ChatGPT đã làm cho sự chuyển đổi quan điểm của trí tuệ nhân tạo trở nên rõ ràng. Hiện nay, một số mô hình như GPT-3, DALL-E, Stable Diffusion và AlphaCode đang trở thành nền tảng cho hầu hết các hệ thống AI. Các startup AI có thể điều chỉnh tham số của những mô hình cơ bản này để phù hợp hơn với các nhiệm vụ cụ thể của họ. Như vậy, những mô hình cơ bản có thể phục vụ một số lượng lớn ứng dụng phụ thuộc trong nhiều lĩnh vực khác nhau, bao gồm tiếp thị, bán hàng, dịch vụ khách hàng, phát triển phần mềm, thiết kế, trò chơi, giáo dục và luật pháp. 

Trong khi các mô hình cơ bản có thể được sử dụng để tạo ra ứng dụng và mô hình kinh doanh mới, chúng cũng có thể trở thành một cách mạnh mẽ để lan truyền thông tin sai lệch, tự động hóa rác chất lượng cao, viết malware và vi phạm bản quyền nội dung và sáng chế. Đã được chứng minh rằng các mô hình cơ bản chứa đựng độ chệch và tạo ra nội dung có định kiến hoặc độc đáo. Những mô hình này có thể mô phỏng chính xác nội dung cực đoan và có thể được sử dụng để làm cho người ta theo chủ nghĩa cực đoan. Chúng có khả năng đánh lừa và trình bày thông tin sai một cách thuyết phục. Đáng lo ngại, những khuyết điểm tiềm ẩn trong những mô hình này sẽ được chuyển giao cho tất cả các mô hình sau này, có thể dẫn đến vấn đề lan rộng nếu không được kiểm soát một cách cố ý.

Vấn đề của "nhiều bàn tay" đề cập đến thách thức của việc gán trách nhiệm đạo đức cho kết quả do nhiều bên tác động, và đây là một trong những yếu tố chính đẩy mạnh sự mất trách nhiệm khi đến với các xã hội thuật toán. Trách nhiệm cho chuỗi cung ứng AI mới, nơi các mô hình cơ bản cung cấp cho hàng trăm ứng dụng phụ thuộc, phải được xây dựng trên tính minh bạch từ đầu đến cuối. Cụ thể, chúng ta cần củng cố tính minh bạch của chuỗi cung ứng trên ba cấp độ và thiết lập một vòng phản hồi giữa chúng.

Tính minh bạch trong các mô hình cơ bản rất quan trọng để cho phép các nhà nghiên cứu và toàn bộ chuỗi cung ứng hậu thuẫn của người dùng điều tra và hiểu rõ về nhược điểm và độ chệch của các mô hình. Các nhà phát triển mô hình đã tự nhận thức được nhu cầu này. Ví dụ, các nhà nghiên cứu của DeepMind đề xuất rằng các vấn đề của các mô hình ngôn ngữ lớn phải được giải quyết bằng cách hợp tác với một loạt các bên liên quan xây dựng trên một mức độ đủ để giải quyết hiệu quả, đánh giá và giảm thiểu hậu quả. Các phương pháp đo lường và thử nghiệm chuẩn hóa, như của Đại học Standford HELM, là cần thiết. Những mô hình này đang trở nên quá mạnh mẽ để hoạt động mà không cần sự đánh giá của các nhà nghiên cứu và kiểm toán viên độc lập. Cơ quan quản lý nên đặt ra câu hỏi: Chúng ta có đủ hiểu biết để đánh giá nơi nên áp dụng các mô hình và nơi chúng phải bị cấm không? Các ứng dụng phụ thuộc có rủi ro cao có thể được đánh giá đúng về mặt an toàn và độ mạnh mẽ với thông tin hiện có không?

Sự minh bạch trong việc sử dụng các mô hình cơ bản. Các tổ chức triển khai những mô hình này cho một trường hợp sử dụng cụ thể sẽ cuối cùng quyết định liệu chúng có phù hợp và đáp ứng các yêu cầu về hiệu suất và độ mạnh mẽ cần thiết hay không. Tuy nhiên, sự minh bạch quanh việc sử dụng những mô hình cơ bản này là rất quan trọng để làm cho các nguy cơ tiềm ẩn trở nên rõ ràng. Những người triển khai phải ghi công cho những mô hình cơ bản được sử dụng, giúp người dùng, kiểm toán viên và cộng đồng rộng lớn đánh giá rủi ro của những ứng dụng phụ thuộc này.

Sự minh bạch trong các kết quả tạo ra bởi trí tuệ nhân tạo. Một trong những thách thức lớn về minh bạch là vấn đề cuối cùng: phân biệt nội dung được tạo ra bởi trí tuệ nhân tạo và nội dung được tạo ra bởi con người. Trong tuần qua, nhiều người trong chúng ta đã bị đánh lừa bởi các bài đăng trên LinkedIn được viết bởi ChatGPT. Nhiều người trong ngành cũng đã nhận ra vấn đề và mọi người đều đồng tình về tầm quan trọng của việc giải quyết nó. Nhưng các giải pháp kỹ thuật vẫn đang được phát triển. Mọi người đã đề xuất đánh dấu nội dung được tạo ra bởi trí tuệ nhân tạo bằng các dấu nước như một cách để giải quyết vấn đề về bản quyền và phát hiện các sử dụng có thể bị cấm và có hại. Một số chuyên gia nói rằng một giải pháp lý tưởng sẽ là một giải pháp mà một độc giả con người không thể phân biệt nhưng vẫn cho phép phát hiện với độ tin cậy cao. Như vậy, việc đánh dấu sẽ không ảnh hưởng đáng kể đến trải nghiệm của người dùng đối với tất cả nội dung được tạo ra bởi trí tuệ nhân tạo nhưng vẫn giúp lọc tốt hơn cho việc sử dụng sai lệch của nội dung.

Vòng phản hồi. Các mô hình tạo ra mô hình lớn được biết đến là không dự đoán được, điều này làm cho việc dự đoán hậu quả của quá trình phát triển và triển khai chúng trở nên khó khăn. Bản chất không dự đoán này, cùng với vấn đề nhiều bàn tay, làm cho việc có thêm một cấp độ minh bạch nữa - các vòng phản hồi - trở nên quan trọng để cả ngành và cơ quan quản lý đảm bảo các giải pháp được điều chỉnh và an toàn hơn.

Các kỹ thuật đồng bộ, sử dụng phản hồi từ con người để hướng dẫn trí tuệ nhân tạo, đã được sử dụng thành công để huấn luyện GPT-3 sản xuất ngôn ngữ ít thô tục và ít thông tin sai lệch và tạo ra ít lỗi hơn. Phương pháp này sử dụng học tăng cường để giảng dạy mô hình, dựa trên phản hồi từ 40 người huấn luyện con người được thuê để diễn đạt và đánh giá những phản ứng của GPT-3. Kết quả của mô hình được điều chỉnh nhận được phản hồi tích cực, và ví dụ tích cực này nhấn mạnh tầm quan trọng của sự tham gia của con người trong việc đánh giá các kết quả của trí tuệ nhân tạo.

Cần có sự tập trung hơn từ cả ngành công nghiệp và cơ quan quản lý để mở rộng và tiêu chuẩn hóa cơ chế thông báo giúp người dùng báo cáo về các kết quả giả mạo, chệch lệch hoặc có hại do các mô hình cơ bản tạo ra. Điều này có thể phục vụ hai mục tiêu quan trọng: giúp huấn luyện mô hình cơ bản thêm nữa với phản hồi từ con người từ các ứng dụng phụ thuộc và cung cấp dữ liệu thực tế cho các nhà nghiên cứu và cơ quan quản lý để hỗ trợ việc phát triển biện pháp giảm rủi ro và chính sách.

Những tuần gần đây đã mở ra một cái nhìn về tình trạng hiện tại của khả năng trí tuệ nhân tạo, đồng thời là điều hấp dẫn và lo lắng. Các cơ quan quản lý sẽ cần điều chỉnh tư duy của họ để đối mặt với những phát triển sắp tới, và ngành công nghiệp cũng cần hợp tác chặt chẽ với những người làm chính sách khi chúng ta điều hướng vào một sự thay đổi mạnh mẽ mới của trí tuệ nhân tạo.

Trần Minh Hoạt

0 Thích

Đánh giá : 4.0 /319