Mytour blog
27/12/202350

Trí Tuệ Nhân Tạo Không Phải là Quả Cầu Pha Lê, Nhưng Có Thể Là Gương năm 2024

Từ ACLU đến các anh em Koch, ai cũng muốn giảm số lượng người ở trong nhà tù và trại giam. Người tự do xem việc giam giữ hàng loạt như là kết quả bất công của một hệ thống mang đặc điểm phân biệt chủng tộc. Người bảo thủ nhìn nhận hệ thống tư pháp hình sự như một hệ thống không hiệu quả cần được cải cách ngay lập tức. Nhưng cả hai bên đều đồng ý: Giảm số người đang sau gác sắt là một ý tưởng tốt từ mọi phương diện.

Với mục tiêu đó, trí tuệ nhân tạo—đặc biệt là các công nghệ dự đoán được gọi là—đã được triển khai để hỗ trợ các phần khác nhau của hệ thống tư pháp hình sự của chúng ta. Ví dụ, dự đoán tội phạm sử dụng dữ liệu về các vụ bắt giữ trước đây và khu vực để hướng dẫn cảnh sát đến nơi họ có thể tìm thấy thêm tội phạm, và các hệ thống tương tự được sử dụng để đánh giá rủi ro phạm tội lại cho bảo lãnh, ân xá, và thậm chí là quyết định án phạt. Những người cải cách trên toàn bộ phổ chính trị đã tuyên bố rằng đánh giá rủi ro bằng thuật toán có tính khách quan hơn so với quyết định của cá nhân. Hãy lấy quyết định về việc có thải ai đó ra khỏi tù trước phiên xử của họ làm ví dụ. Những người ủng hộ đánh giá rủi ro cho rằng nhiều người có thể được thả ra nếu chỉ có thêm công cụ đáng tin cậy và hiệu quả để đánh giá rủi ro của họ.

Tuy nhiên, một cuộc điều tra của ProPublica năm 2016 đã cho thấy không chỉ là những đánh giá này thường không chính xác, mà chi phí của sự không chính xác đó lại được chịu tỷ lệ không cân đối bởi các bị cáo người Mỹ gốc Phi, người mà thuật toán gần như gấp đôi tỷ lệ nhãn là nguy cơ cao về việc phạm tội sau này hoặc vi phạm các điều khoản của án treo.

Chúng ta đang sử dụng thuật toán như những quả cầu pha lê để đưa ra dự đoán thay mặt cho xã hội, khi chúng ta nên sử dụng chúng như một gương để tự xem xét bản thân và hệ thống xã hội của chúng ta một cách phê phán hơn. Học máy và khoa học dữ liệu có thể giúp chúng ta hiểu rõ hơn và giải quyết những nguyên nhân cơ bản của nghèo đói và tội phạm, miễn là chúng ta dừng việc sử dụng những công cụ này để tự động hóa quyết định và ghi chép lại bất công lịch sử.

Khó Khăn Trong Quá Trình Đào Tạo

Hầu hết trí tuệ nhân tạo hiện đại đều yêu cầu lượng lớn dữ liệu để đào tạo máy tính để dự đoán tương lai một cách chính xác hơn. Khi các hệ thống được đào tạo để giúp bác sĩ phát hiện, chẳng hạn, ung thư da, những lợi ích là rõ ràng. Nhưng, trong một minh họa kinh hoàng về tầm quan trọng của dữ liệu được sử dụng để đào tạo thuật toán, một đội ngũ tại Media Lab đã tạo ra cái mà có lẽ là tên lửa trí tuệ nhân tạo đầu tiên của thế giới và đào tạo nó với một subreddit nổi tiếng ghi lại những cái chết kinh hoàng, bạo lực. Họ đặt tên thuật toán đó là Norman và bắt đầu cho nó xem những hình mờ Rorschach. Họ cũng đào tạo một thuật toán với đầu vào nhân từ hơn. Thuật toán tiêu chuẩn nhìn thấy các con chim đậu trên cành cây, còn Norman nhìn thấy một người bị điện giật chết.

Vì vậy, khi dự đoán dựa trên máy tính được sử dụng để đưa ra quyết định ảnh hưởng đến cuộc sống của những người dễ bị tổn thương, chúng ta đang đối mặt với rủi ro làm tổn thương những người đã bị thiệt thòi—chuyển quyền lực từ người được quản lý sang người quản lý. Điều này trái với giả thuyết cơ bản của nền dân chủ.

Những bang như New Jersey đã áp dụng đánh giá rủi ro trước phiên xử nhằm giảm thiểu hoặc loại bỏ việc sử dụng bảo lãnh dựa trên tiền mặt, mà nhiều nghiên cứu đã chỉ ra không chỉ là không hiệu quả mà còn thường thực sự trừng phạt đối với những người không thể thanh toán. Trong nhiều trường hợp, yêu cầu bảo lãnh bằng tiền mặt thực sự là một phương tiện để giữ bị cáo và phủ nhận họ một trong những quyền cơ bản nhất: quyền tự do dưới giả định vô tội.

Mặc dù cải cách bảo lãnh bằng tiền mặt là một mục tiêu đáng ngưỡng mộ, những người phê phán đánh giá rủi ro lo ngại rằng những nỗ lực như vậy có thể dẫn đến mở rộng các điều kiện trừng phạt không tiền mặt, như giám sát điện tử và kiểm tra ma túy bắt buộc. Hiện tại, các đánh giá không cung cấp thông tin ít hoặc không có về cách rủi ro của bị cáo liên quan đến các điều kiện đa dạng mà một thẩm phán có thể đặt cho việc thả ra. Kết quả là, thẩm phán không có đủ kiến thức để đặt câu hỏi quan trọng về cách việc thả ra với điều kiện như kiểm tra ma túy hoặc vòng cổ có GPS thực sự ảnh hưởng đến kết quả cho bị cáo và xã hội. Ví dụ, một vòng cổ có thể ảnh hưởng đến khả năng làm việc của bị cáo trong khi đợi phiên xử? Trước những lo ngại này, các đánh giá rủi ro cuối cùng có thể đơn giản chỉ làm cho những loại thực hành hại mới trở nên hợp lệ. Trong điều này, chúng ta bỏ lỡ một cơ hội: Nhà khoa học dữ liệu nên tập trung sâu hơn vào việc hiểu rõ nguyên nhân cơ bản của tội phạm và nghèo đó, thay vì chỉ sử dụng mô hình hồi quy và học máy để trừng phạt những người ở trong tình huống có rủi ro cao.

Những vấn đề như vậy không chỉ giới hạn trong hệ thống tư pháp hình sự. Trong cuốn sách mới nhất của mình, Automating Inequality, Virginia Eubanks mô tả một số ví dụ thuyết phục về những nỗ lực thất bại của các chính phủ bang và địa phương để sử dụng thuật toán để hỗ trợ đưa ra quyết định. Một ví dụ đau lòng mà Eubanks đưa ra là việc sử dụng dữ liệu bởi Văn phòng Trẻ em, Thanh thiếu niên và Gia đình ở quận Allegheny, Pennsylvania, để lọc cuộc gọi và gán điểm rủi ro cho các gia đình giúp quyết định liệu các nhân viên công tác có nên can thiệp để đảm bảo phúc lợi của một đứa trẻ.

Để đánh giá rủi ro cụ thể của một đứa trẻ, thuật toán chủ yếu "học" từ dữ liệu được tạo ra từ các cơ quan công cộng, nơi một bản ghi được tạo mỗi khi có người đăng ký dịch vụ công cộng giá rẻ hoặc miễn phí, chẳng hạn như Chương trình Hỗ trợ Dinh dưỡng Bổ sung. Điều này có nghĩa là hệ thống cơ bản xem xét các đứa trẻ nghèo là có rủi ro cao hơn so với những đứa trẻ giàu có không sử dụng dịch vụ xã hội. Kết quả, các triệu chứng của một đứa trẻ có rủi ro cao giống như triệu chứng của nghèo đó, kết quả của việc chỉ sống trong một hộ gia đình gặp khó khăn trong việc kết thúc cuối cùng. Dựa trên những dữ liệu như vậy, một đứa trẻ có thể bị chuyển khỏi nhà của mình và đặt vào sự chăm sóc của nhà nước, nơi kết quả của cô trở nên khá u ám, chỉ vì mẹ cô không đủ khả năng mua tã.

Tìm Nguyên Nhân

Thay vì sử dụng thuật toán dự đoán để trừng phạt các gia đình thu nhập thấp bằng cách tước đứa trẻ của họ, Eubanks lập luận rằng chúng ta nên sử dụng dữ liệu và thuật toán để đánh giá những nguyên nhân cơ bản của nghèo đó tồn tại trong cuộc sống của một đứa trẻ và sau đó đặt ra những câu hỏi tốt hơn về những can thiệp nào sẽ hiệu quả nhất trong việc ổn định mái ấm.

Đây là một chủ đề mà đồng nghiệp của tôi Chelsea Barabas đã thảo luận kỹ tại Hội nghị về Sự công bằng, Trách nhiệm và Trong suốt gần đây, nơi cô trình bày bài báo của chúng tôi, “Interventions Over Predictions: Reframing the Ethical Debate for Actuarial Risk Assessment.” Trong bài báo, chúng tôi lập luận rằng cộng đồng kỹ thuật đã sử dụng đo lường sai về độ rủi ro đạo đức của các công nghệ được kích hoạt bởi trí tuệ nhân tạo. Bằng cách hẹp hòi đặt ra rủi ro và lợi ích của trí tuệ nhân tạo dưới góc độ độ chệch lệch và độ chính xác, chúng ta đã bỏ qua những câu hỏi cơ bản hơn về cách sự giới thiệu của tự động hóa, phần mềm phân loại và mô hình dự đoán liên quan đến các kết quả mang lại lợi ích cho xã hội.

Để làm mới cuộc tranh luận, chúng ta phải ngừng cố gắng đạt được dự đoán 'không chệch lệch' và bắt đầu hiểu các mối quan hệ nguyên nhân. Điều gì đã làm cho ai đó bỏ lỡ một buổi tòa? Tại sao một người mẹ giữ một chiếc tã cho đứa trẻ trong thời gian dài mà không thay nó? Việc sử dụng thuật toán để hỗ trợ việc quản lý dịch vụ công cộng tạo ra một cơ hội tuyệt vời để thiết kế các can thiệp xã hội hiệu quả—và là một rủi ro to lớn về việc khóa chặt bất công xã hội hiện tại. Điều này là trung tâm của dự án AI Humanizing in Law (HAL) mà chúng tôi đang thực hiện tại Media Lab, cùng với một số nỗ lực nhỏ nhưng ngày càng tăng về sự kết hợp của các nhà khoa học xã hội và nhà khoa học máy tính.

Điều này không phải là nói rằng việc dự đoán không hữu ích, cũng không phải là nói rằng hiểu mối quan hệ nguyên nhân chính nó sẽ sửa được mọi thứ. Giải quyết các vấn đề xã hội của chúng ta là một công việc khó khăn. Điểm của tôi là chúng ta phải sử dụng lượng lớn dữ liệu có sẵn để hiểu rõ hơn về những gì đang thực sự diễn ra. Việc tập trung lại này có thể làm cho tương lai trở nên công bằng và có cơ hội hơn, và ít khiến cho ác mộng kiểu Minority Report.

Giới Hạn của Trí Tuệ Nhân Tạo

  • Làm thế nào trí tuệ nhân tạo có thể và không thể sửa chữa Facebook
  • Trí tuệ nhân tạo có thể giúp bảo mật mạng nếu nó có thể vượt qua sự hào nhoáng
  • Thư giãn! Robot nhất định sẽ không lấy đi công việc của chúng ta
Trần Minh Hoạt

0 Thích

Đánh giá : 4.1 /130