Sáu mươi hai năm trước vào mùa hè này, giáo sư John McCarthy của Dartmouth đặt ra thuật ngữ trí tuệ nhân tạo. Joi Ito, giám đốc MIT's Media Lab, cho rằng thuật ngữ này đã trở nên không hữu ích.
Việc nói về trí tuệ nhân tạo trở nên khó tránh khỏi do sự đầu tư mạnh mẽ từ các công ty hy vọng có lợi nhuận từ sự tiến bộ trong học máy. Ito tin rằng thuật ngữ này cũng bị nhiễm bẩn bởi giả định rằng con người và máy móc phải đối đầu—hãy nghĩ về những cuộc tranh luận về việc công việc bị robot chiếm đoạt, hoặc nguy cơ siêu trí tuệ đe dọa nhân loại.
“Thay vì nghĩ về trí tuệ nhân tạo là riêng biệt hoặc đối đầu với con người, việc nghĩ về máy móc hỗ trợ trí tuệ và xã hội của chúng ta là có ích và chính xác hơn,” Ito nói. (Ito thường xuyên đóng góp cho phần ý tưởng của blog.mytour.vn.) Chào biệt AI, và chào mừng EI, hoặc XI, cho trí tuệ mở rộng. Cụm từ này được tạo ra để làm cho việc nghĩ về trí tuệ nhân tạo dễ dàng hơn với tư duy về công cụ cho lợi ích của nhiều người, không phải là bổ sung hoặc bảo vệ cho ít người.
Ito không đơn độc trong việc thúc đẩy ý niệm về trí tuệ mở rộng. Ngọn đuốc được chuyển giao bởi một nhóm mới mang tên Hội đồng Toàn cầu về Trí Tuệ Mở Rộng, được công bố vào thứ Sáu bởi Media Lab và tổ chức tiêu chuẩn IEEE. Dự án còn được biết đến với tên gọi CXI, nhằm hướng dẫn nhiều tài năng và tiền bạc được chi tiêu cho trí tuệ nhân tạo hướng vào các dự án nhằm cải thiện đời sống của mọi người. Các lĩnh vực quan tâm bao gồm việc giúp người dân kiểm soát danh tính của họ ngay cả khi các công nghệ như nhận diện khuôn mặt trở nên phổ biến hơn, và tìm cách đo lường cách tự động hóa ảnh hưởng đến phúc lợi của người lao động, không chỉ là lợi nhuận của công ty và GDP.
CXI đã bắt đầu làm việc trên hướng dẫn chính sách cho các chính phủ về những chủ đề đó. Các thành viên của nhóm bao gồm đại diện của Liên minh châu Âu, Thượng nghị viện Anh và chính phủ của Ấn Độ và Đài Loan.
Đây hoàn toàn không phải là dự án đầu tiên liên quan đến hậu quả xã hội của trí tuệ nhân tạo. Nhiều nhà nghiên cứu học thuật và doanh nghiệp hiện nay nghiên cứu cách duy trì tính đạo đức của các thuật toán, một phần được thúc đẩy bởi việc phát hiện một số thuật toán có độ chệch đối với phụ nữ hoặc người da màu. Một số công ty, bao gồm Google và Microsoft, đã thiết lập quy trình hoặc hướng dẫn về đạo đức nội bộ để đặt rào cản quanh việc sử dụng công nghệ.
Hướng dẫn của Google đã được công bố vào đầu tháng này sau khi nhân viên phản đối sự tham gia của công ty trong một dự án trí tuệ nhân tạo của Bộ Quốc phòng, họ nói họ không muốn sức mạnh học máy của Google được liên quan đến việc giết người. Konstantinos Karachalios, giám đốc điều hành cho các nỗ lực tiêu chuẩn của IEEE, nói CXI được đặt ở vị thế để hỗ trợ một phong trào lớn hơn trong đó các chuyên gia công nghệ đang đặt câu hỏi liệu sự phát triển công nghệ có nên được hướng dẫn bởi sự theo đuổi lợi nhuận và quyền lực một mình. “Thời kỳ trong sáng đã kết thúc, và các chuyên gia kỹ thuật đang tỉnh bơ,” ông nói. “Chúng ta nên hỗ trợ những người đó.”
0 Thích