Mytour blogimg_logo
27/12/202380

Đừng làm Trí Tuệ Nhân Tạo ngu ngốc một cách nhân tạo vì Lập Trình Trong Suốt năm 2025

Hệ thống trí tuệ nhân tạo sẽ làm hỏng một số chiếc ô tô của chúng ta, và đôi khi chúng sẽ đề xuất án phạt dài hơn cho người Mỹ gốc Phi so với người da trắng. Chúng ta biết điều này vì chúng đã phạm lỗi theo những cách này. Nhưng điều này không có nghĩa là chúng ta nên đòi hỏi—như nhiều người, kể cả Quy định Bảo vệ Dữ liệu Chung của Ủy ban Châu Âu đều làm—rằng trí tuệ nhân tạo phải có khả năng giải thích cách nó đưa ra kết luận của mình trong mọi trường hợp không trắc định.

Yêu cầu tính minh bạch nghe có vẻ tốt, nhưng đạt được điều đó có thể đòi hỏi làm cho trí tuệ nhân tạo trở nên ngu ngốc một cách nhân tạo. Và với lời hứa của loại trí tuệ nhân tạo gọi là học máy, việc làm cho công nghệ này trở nên ngu xuẩn có thể đồng nghĩa với việc không thể chẩn đoán bệnh, bỏ qua nguyên nhân quan trọng của biến đổi khí hậu, hoặc làm cho hệ thống giáo dục của chúng ta trở nên quá một cỡ. Việc tận dụng đầy đủ sức mạnh của học máy có thể đồng nghĩa với việc phải dựa vào những kết quả mà đối với tâm trí con người là hoàn toàn không thể giải thích.

Học máy, đặc biệt là dạng được gọi là học sâu, có thể phân tích dữ liệu thành hàng nghìn biến số, sắp xếp chúng vào các mảng quan hệ trọng lượng cực kỳ phức tạp và nhạy cảm, sau đó chạy những mảng đó lặp đi lặp lại qua các mạng thần kinh máy tính. Để hiểu kết quả—tại sao hệ thống cho rằng có 73% khả năng bạn sẽ phát bệnh tiểu đường hoặc có 84% khả năng một nước cờ vua sẽ dẫn đến chiến thắng—có thể đòi hỏi sự hiểu biết về mối quan hệ giữa hàng nghìn biến số đó được tính toán bởi nhiều lần chạy qua các mạng thần kinh rộng lớn. Não bộ của chúng ta đơn giản không thể giữ được lượng thông tin đó.

Có rất nhiều công việc thú vị đang được thực hiện để làm cho kết quả học máy trở nên dễ hiểu đối với con người. Ví dụ, đôi khi một cuộc kiểm tra có thể tiết lộ biến số nào có trọng số lớn nhất. Đôi khi, các hình ảnh minh họa các bước trong quá trình có thể cho thấy cách hệ thống đưa ra kết luận của mình. Nhưng không phải lúc nào cũng vậy. Vì vậy, chúng ta có thể dừng việc đòi hỏi giải thích mọi lúc, hoặc chúng ta có thể chấp nhận việc không luôn luôn nhận được kết quả chính xác nhất từ những máy này. Điều đó có thể không quan trọng nếu học máy đang tạo ra một danh sách các đề xuất phim, nhưng có thể là vấn đề quan trọng đến tính mạng trong y tế và ô tô, và nhiều lĩnh vực khác nữa.

Giải thích là công cụ: Chúng ta sử dụng chúng để đạt được một số mục tiêu. Với học máy, giải thích có thể giúp các nhà phát triển sửa lỗi cho một hệ thống đã sai lầm. Nhưng giải thích cũng có thể được sử dụng để đánh giá xem một kết quả có dựa trên các yếu tố không nên tính (giới tính, chủng tộc, v.v., tùy thuộc vào bối cảnh) và để đánh giá trách nhiệm pháp lý. Tuy nhiên, có những cách khác chúng ta có thể đạt được kết quả mong muốn mà không làm ảnh hưởng đến khả năng của các hệ thống học máy giúp chúng ta.

Dưới đây là một công cụ hứa hẹn mà chúng ta đã rất quen thuộc: tối ưu hóa. Ví dụ, trong cuộc khủng hoảng dầu năm 1970, chính phủ liên bang quyết định tối ưu hóa đường cao tốc để tiết kiệm xăng bằng cách giảm giới hạn tốc độ xuống 55. Tương tự, chính phủ có thể quyết định quy định điều gì là tối ưu cho các ô tô tự động.

Nếu các quan chức được bầu chọn quyết định rằng hệ thống xe tự lái nên được tối ưu hóa để giảm thiểu số lượng tai nạn giao thông ở Mỹ, mà vào năm 2016 đã đạt đến con số 37,000. Nếu số vụ tai nạn giảm đột ngột - McKinsey nói rằng ô tô tự lái có thể giảm số lượng tử vong do tai nạn giao thông điều này lên đến 90% - thì hệ thống sẽ đạt được mục tiêu tối ưu hóa của nó, và cả nước sẽ mừng rỡ ngay cả khi không ai có thể hiểu tại sao một chiếc xe cụ thể nào đã "quyết định" những điều nó đã làm. Thực sự, hành vi của ô tô tự lái có thể trở nên rất không thể giải thích khi chúng trở nên kết nối mạng và quyết định hành vi của chúng theo cách hợp tác.

Bây giờ, việc quy định tối ưu hóa ô tô tự lái sẽ phức tạp hơn. Có khả năng sẽ có một hệ thống ưu tiên: Ô tô tự lái có thể được tối ưu hóa trước tiên để giảm thiểu số lượng tử vong, sau đó là để giảm thiểu số lượng thương tích, sau đó là để giảm thiểu ảnh hưởng môi trường, sau đó là để giảm thiểu thời gian lái, và cetera. Các ưu tiên cụ thể sẽ là điều mà các quy reg reg dân sẽ phải đối mặt.

Bất kể kết quả như thế nào, điều quan trọng là các quy trình dân chủ hiện tại, không phải là lợi ích thương mại, sẽ quyết định về việc tối ưu hóa. Để thị trường quyết định cũng có khả năng dẫn đến các quyết định, thực sự, quá tệ, vì các nhà sản xuất ô tô sẽ có động cơ mạnh mẽ để lập trình ô tô của họ để luôn chiến thắng, mặc kệ hậu quả chung. Sẽ khó để bào chữa rằng kết quả tốt nhất có thể trên các con đường cao tốc sẽ là một kiểu Carmaggedon kiểu Mad Max. Đây là những vấn đề ảnh hưởng đến lợi ích công cộng và nên được quyết định trong lĩnh vực quản trị công cộng.

Quan trọng nhất là các quy trình dân chủ hiện tại, không phải là lợi ích thương mại, sẽ quyết định cách hệ thống trí tuệ nhân tạo được tối ưu hóa.

Tuy nhiên, đặt ra các tối ưu hóa và đo lường kết quả không đủ. Giả sử số người chết do tai nạn giao thông giảm từ 37,000 xuống còn 5,000, nhưng người màu sắc chiếm một số lượng nạn nhân vượt trội. Hoặc giả sử một hệ thống trí tuệ nhân tạo lọc ứng viên việc làm chọn những người đáng phỏng vấn, nhưng chỉ có một phần trăm nhỏ trong số họ là phụ nữ. Tối ưu hóa rõ ràng không đủ. Chúng ta cũng cần hạn chế những hệ thống này để hỗ trợ các giá trị cơ bản của chúng ta.

Đối với điều này, các hệ thống trí tuệ nhân tạo cần phải minh bạch về các tối ưu hóa mà chúng nhắm đến và về kết quả của chúng, đặc biệt là đối với những giá trị quan trọng mà chúng ta muốn chúng hỗ trợ. Nhưng chúng ta không nhất thiết cần phải minh bạch về thuật toán của chúng. Nếu một hệ thống đang không đạt được mục tiêu, nó cần phải được điều chỉnh cho đến khi nó đạt được. Nếu nó đang đạt được mục tiêu của mình, thì việc giải thích không cần thiết.

Nhưng tối ưu hóa nào chúng ta nhân dân nên áp đặt? Ràng buộc quan trọng nào? Đây là những câu hỏi khó khăn. Nếu một công ty Silicon Valley đang sử dụng trí tuệ nhân tạo để lọc đơn xin việc cho vị trí phát triển viên, chúng ta nhân dân có muốn đòi hỏi rằng bể đã được lọc phải chiếm 50 phần trăm phụ nữ không? Chúng ta có muốn nói rằng nó phải ít nhất bằng với phần trăm phụ nữ tốt nghiệp chuyên ngành khoa học máy tính không? Chúng ta có hài lòng nếu đưa ra tích cực bình đẳng giới qua thời gian không? Chúng ta có muốn bể có 75 phần trăm phụ nữ để giúp bù đắp cho những bất công trong quá khứ không? Đây là những câu hỏi khó khăn, nhưng một chế độ dân chủ không nên để các thực thể thương mại tự đưa ra câu trả lời. Hãy để lĩnh vực công cộng xác định các tối ưu hóa và các ràng buộc của chúng.

Nhưng còn một phần nữa của vấn đề này. Điều này sẽ là sự an ủi lạnh cho 5,000 người chết trong tai nạn xe tự lái khi có 32,000 người đã sống sót. Trong bối cảnh của mạng lưới tạm thời của các phương tiện tự động, có thể không có cách nào để giải thích tại sao là cô dì Ida của bạn đã chết trong cảnh tắc. Nhưng chúng ta cũng không muốn hy sinh thêm 1,000 hoặc 10,000 người mỗi năm để làm cho hệ thống trở nên có thể giải thích cho con người. Vì vậy, nếu sự giải thích thật sự khiến hệ thống kém hiệu quả trong việc giảm thiểu tử vong, thì bảo hiểm xã hội không lỗi (bảo hiểm do chính phủ tài trợ mà không cần phải xác định trách nhiệm) nên được sử dụng thường xuyên để bồi thường cho nạn nhân và gia đình của họ. Không có gì có thể đưa lại những người bị nạn, nhưng ít nhất sẽ có ít cô Ida nằm chết trong tai nạn xe hơn.

Có những lý do tốt để chuyển đến loại quản trị này: Nó cho phép chúng ta hưởng lợi từ các hệ thống trí tuệ nhân tạo đã phát triển vượt xa khả năng của con người để hiểu chúng.

Nó tập trung cuộc thảo luận ở cấp độ hệ thống thay vì ở các sự kiện cá nhân. Bằng cách đánh giá trí tuệ nhân tạo so với các quy trình nó thay thế, chúng ta có thể có khả năng né tránh một số sợ hãi đạo đức mà trí tuệ nhân tạo đang gây ra.

Nó coi các câu hỏi về quản trị như những câu hỏi xã hội cần được giải quyết thông qua các quy trình hiện tại để giải quyết các vấn đề chính sách.

Và nó đặt quyền quản trị của những hệ thống này trong khung cảnh con người, xã hội của chúng ta, làm cho chúng phục tùng nhu cầu, mong muốn và quyền lợi của con người.

Bằng cách xem xử lý quản trị trí tuệ nhân tạo như một vấn đề về tối ưu hóa, chúng ta có thể tập trung cuộc tranh luận cần thiết vào điều quan trọng thực sự: Chúng ta muốn gì từ một hệ thống, và chúng ta sẵn lòng hy sinh gì để có được nó?

Một phiên bản dài hơn của bài viết này có sẵn trên trang web Trung tâm Harvard Berkman Klein.

Quan điểm của blog.mytour.vn đăng các bài viết được viết bởi các động lực bên ngoài và đại diện cho nhiều quan điểm khác nhau. Đọc thêm ý kiến tại đây.

Thêm về Trí tuệ Nhân tạo và Xe tự lái

  • Tại sao hệ thống tự lái của Tesla không thể nhìn thấy một chiếc xe tải đang đỗ
  • Xe tự lái sẽ gây ra tử vong. Ai quyết định ai sẽ chết?
  • Trí tuệ nhân tạo vẫn đang chờ đợi cuộc ghép tạng đạo đức của mình
Trần Minh Hoạt

0 Thích

Đánh giá : 4.8 /306