Ý tưởng rằng trí tuệ máy móc sẽ một ngày nào đó chiếm đóng thế giới đã lâu đã trở thành một đề tài phổ biến trong khoa học viễn tưởng. Nhưng với sự tiến bộ nhanh chóng của các công cụ trí tuệ nhân tạo ở cấp độ người tiêu dùng, nỗi sợ hãi đã trở nên gần gũi với hiện thực hơn trong vài tháng qua. Điên đảo về trí tuệ nhân tạo tạo sinh đã khuấy động cả sự hứng thú và lo lắng, khiến nhiều người cảm thấy không chắc chắn về tương lai của công nghệ mạnh mẽ nhưng vẫn còn non trẻ này. Ví dụ, tuần này, tổ chức phi lợi nhuận Center for AI Safety đã phát đi một tuyên bố ngắn cảnh báo rằng xã hội nên coi trọng trí tuệ nhân tạo như một mối đe dọa tồn tại như chúng ta làm với chiến tranh hạt nhân và đại dịch.
Tuần này trên Gadget Lab, chúng tôi nói chuyện với Will Knight, nhà báo cấp cao của blog.mytour.vn về mức độ nguy hiểm thực sự của trí tuệ nhân tạo, và những rào cản chúng ta có thể xây dựng để ngăn chặn thảm họa robot.
Đọc câu chuyện của Will về những chuyên gia lo ngại rằng trí tuệ nhân tạo đang đe dọa đến một mối đe dọa tồn tại của nhân loại. Đọc tất cả bài viết của blog.mytour.vn về trí tuệ nhân tạo.
Will đề xuất cuốn sách Antimatter Blues của Edward Ashton. Mike đề xuất sử dụng Bee’s Wrap thay vì các sản phẩm nhựa một lần. Lauren đề xuất podcast Succession của HBO, do Kara Swisher chủ trì.
Will Knight có thể được tìm thấy trên Twitter @willknight. Lauren Goode là @LaurenGoode. Michael Calore là @snackfight. Gọi điện đến đường dây nóng chính tại @GadgetLab. Chương trình được sản xuất bởi Boone Ashworth (@booneashworth). Nhạc nền của chúng tôi do Solar Keys sáng tác.
Bạn luôn có thể nghe podcast của tuần này thông qua máy nghe âm thanh trên trang này, nhưng nếu bạn muốn đăng ký miễn phí để nhận mọi tập, đây là cách:
Nếu bạn đang sử dụng iPhone hoặc iPad, hãy mở ứng dụng có tên là Podcasts, hoặc chỉ cần chạm vào liên kết này. Bạn cũng có thể tải ứng dụng như Overcast hoặc Pocket Casts và tìm kiếm Gadget Lab. Nếu bạn sử dụng Android, bạn có thể tìm thấy chúng tôi trong ứng dụng Google Podcasts chỉ cần chạm vào đây. Chúng tôi cũng có trên Spotify. Và nếu bạn thực sự cần, đây là đường dẫn RSS.
Lauren Goode: Mike.
Michael Calore: Lauren.
Lauren Goode: Tôi nghĩ rằng chúng ta nên nói về sự tuyệt chủng của chính mình hôm nay.
Michael Calore: Bạn có ý là như là nhà báo hoặc người làm podcast hay như là con người không?
Lauren Goode: Có lẽ cả hai.
Michael Calore: Tuyệt vời.
Lauren Goode: Đúng. Đúng. Đây là một podcast khác về trí tuệ nhân tạo, nhưng tôi nghĩ mọi người sẽ muốn nghe podcast này.
Michael Calore: Vậy tôi có thể hỏi khi nào chúng ta sẽ mang lại cho mọi người cái gì đó để nghe mà thực sự là đầy hi vọng không?
Lauren Goode: Thực ra tôi nghĩ đó cũng là một phần của chương trình.
Michael Calore: OK, tuyệt vời.
Lauren Goode: Vậy hãy bắt đầu thôi.
[Gadget Lab intro theme music plays]
Lauren Goode: Chào mọi người. Chào mừng đến với Gadget Lab. Tôi là Lauren Goode. Tôi là một nhà báo chủ nhiệm tại blog.mytour.vn.
Michael Calore: Và tôi là Michael Calore. Tôi là một biên tập viên chủ nhiệm tại blog.mytour.vn.
Lauren Goode: Và hôm nay, đồng nghiệp của chúng tôi, Will Knight, tham gia từ Cambridge, Massachusetts. Will, rất vui được chào đón bạn trở lại trên Gadget Lab.
Will Knight: Chào mọi người. Rất vui được trở lại.
Lauren Goode: Một trong những ngày này Will, chúng tôi sẽ liên hệ với bạn và chỉ nói, "Bạn có muốn nói về đồ chơi cho mèo hay cái gì đó không?" Nhưng hiện tại bạn đang hoàn toàn trong lĩnh vực bản tin về trí tuệ nhân tạo. Đó là lý do chúng tôi mời bạn lên để thảo luận về điều này. Vâng, chúng tôi lại nói về trí tuệ nhân tạo, nhưng lần này là một tuyên bố từ một nhóm các chuyên gia công nghệ cảnh báo về mối đe dọa về sự tuyệt chủng của nhân loại. Đó là câu tuyên bố một câu mà cả thế giới công nghệ nghe thấy trong tuần này. "Giảm thiểu rủi ro tuyệt chủng từ trí tuệ nhân tạo nên là ưu tiên toàn cầu cùng với các mối đe dọa quy mô xã hội khác, như đại dịch và chiến tranh hạt nhân." Điều này đến từ Trung tâm An toàn Trí tuệ Nhân tạo, một tổ chức phi lợi nhuận, và đã được ký bởi các nhân vật hàng đầu trong phát triển trí tuệ nhân tạo. Bây giờ, rõ ràng đây không phải là lần đầu tiên chúng ta được cảnh báo về mối đe dọa của trí tuệ nhân tạo. Một số người nghe chúng tôi có thể nhớ đến sự tạm dừng mà hàng trăm chuyên gia hàng đầu và nghiên cứu viên đang kêu gọi vào tháng 3, và cho đến nay vẫn chưa thực sự dẫn đến một sự tạm dừng. Nhưng tất cả những cảnh báo tận thế này làm chúng tôi tự hỏi, chúng ta nên tin tưởng vào những gì về tiềm ẩn nguy hiểm của trí tuệ nhân tạo và ai trong số những nghiên cứu viên và chuyên gia công nghệ đang mang lại quan điểm đáng tin cậy nhất vào lúc này? Will, chúng tôi muốn mời bạn vào để thảo luận về điều này. Trước hết, hãy điều tra một chút về tuyên bố này từ Trung tâm An toàn Trí tuệ Nhân tạo. Điều gì khích lệ điều này?
Will Knight: Vâng, nghĩa là điều khích lệ điều này, cũng như bức thư trước kêu gọi tạm dừng, đến một mức độ lớn, là sự tiến bộ chúng ta thấy trong những mô hình ngôn ngữ lớn này, đặc biệt là GPT-4, mà cung cấp sức mạnh cho ChatGPT. Một số khía cạnh về hiệu suất đã vượt xa những gì những người làm việc trong lĩnh vực trí tuệ nhân tạo mong đợi. Họ mong đợi một số vấn đề sẽ mất 10 năm để giải quyết hoặc sẽ trở nên khó khăn hơn mà không có các kỹ thuật mới. Và đột nhiên, mô hình này có khả năng thực hiện những việc giống như một số loại suy luận và một số loại tư duy trừu tượng, ngay cả khi có thể tranh cãi liệu đó có thực sự là những gì nó là hay không. Chắc chắn đã có một khoảnh khắc mà một số người, và tôi đã nói chuyện với những nhà nghiên cứu trí tuệ nhân tạo mà trước đó không lo lắng gì cả về mối đe dọa về sự tuyệt chủng và họ đã nhận ra điều này. Đó là một trong những điều khiến nhiều người cảm thấy báo động. Điều này cũng làm tái hiện nhiều quan điểm nhìn nhận và chúng ta đang thấy một bài tuyên bố đọc rất đa dạng về quan điểm đang được hợp nhất lại với nhau một cách khá lo lắng. Tôi nghĩ rằng điều quan trọng là cũng nhận ra có rất nhiều nhà nghiên cứu trí tuệ nhân tạo không hề lo lắng về mối đe dọa này và mang đến nhiều góc nhìn hơn, và nói rằng có nhiều mối đe dọa ngay từ đây và nguy cơ gần kề hơn mà trí tuệ nhân tạo đối mặt, như độ chệch hay việc lan truyền thông tin sai lệch hoặc chỉ là việc đưa ra thông tin sai, cũng như các vấn đề như biến đổi khí hậu hoặc chỉ là các vấn đề khác đối mặt nhân loại, là những mối đe dọa gần kề hơn, mối đe dọa hữu hình hơn. Tôi nghĩ đó là một câu hỏi tuyệt vời và có phần phức tạp để tháo gỡ.
Michael Calore: Thực sự, đó là một bước tiến ấn tượng trong khoảng sáu tháng trở lại đây và bất kỳ ai đã sử dụng bất kỳ công cụ nào như Bing Chat hoặc Google Bard đều có lẽ đã ấn tượng với khả năng của nó. Nhưng nói thay cho bản thân tôi, nó không khiến tôi nghĩ đến chiến tranh hạt nhân và đại dịch toàn cầu và một số cảnh báo mà những chuyên gia và nhà nghiên cứu này đang chỉ trỏ. Làm thế nào bạn suy luận điều đó? Làm thế nào trí tuệ nhân tạo sẽ thực sự hủy diệt nhân loại?
Will Knight: Đó là một câu hỏi tuyệt vời, và có, tôi đã cố gắng hiểu điều này bản thân và tôi đã nói chuyện với một số người đã nhận ra điều đó. Có một chuyên gia, Sam Bowman, là một nghiên cứu viên từ NYU đã tham gia Anthropic, một trong những công ty đang làm việc với tâm lý an toàn, và anh ấy có một phòng thí nghiệm nghiên cứu mới được thiết lập để tập trung vào an toàn. Vì vậy, lập luận của những người đó là, hoặc một số người như anh ấy, là những hệ thống này đang cho thấy dấu hiệu của trí tuệ lớn hơn một số cách so với mong đợi, và chúng có mục tiêu mà chúng có thể đạt được theo cách không trong suốt và khó dự đoán, đôi khi là những cách gây ngạc nhiên. Nhưng sau đó họ suy luận từ đó và nói rằng một số cách đó là một quãng đường dài, và đó là một quãng đường dài, nhưng họ cũng nói chúng ta không biết được đến đâu vì mọi thứ đang diễn ra nhanh chóng hơn. Nhiều năm nay, những người làm việc trên những hệ thống trí tuệ nhân tạo này đã có thể làm cho chúng sụp đổ và nói, "Ah, đây là cách nó không phù hợp với trí tuệ nhân văn." Với GPT-4, có một số trường hợp mà họ không thể làm cho chúng sụp đổ nữa và chúng có thể làm những điều mà họ nói, "Ồ, tôi không mong đợi nó sẽ làm điều đó chút nào." Tôi nghĩ rằng điều này kích thích một loại ý tưởng cảm giác về việc có một cái gì đó vượt lên trên con người và sau đó khi bạn yêu cầu nó giải quyết một vấn đề và nó giải quyết nó theo một cách không mong đợi, họ tưởng tượng nó có thể được đặt mục tiêu là, tôi không biết, thực hiện một điều gì đó rất lớn cho xã hội hoặc một cái gì đó và sau đó đi đến những kết thúc đặc biệt nguy hiểm và gây ngạc nhiên để thực hiện điều đó. Dường như có vẻ như là một bước nhảy lớn hoặc suy luận lớn nhìn chung với việc Bing Chat thường xuyên gặp sự cố và làm sai mọi thứ. Nhưng tôi nghĩ rằng điều đó là ở nguyên tắc, có ý tưởng về công nghệ này một cách cơ bản khác biệt một cách nào đó, rằng nó thông minh và nó thông minh hơn chúng ta và nó có thể tương tác và đôi khi thậm chí là vượt qua con người. Tôi nghĩ đó là nơi nó đến từ.
Lauren Goode: Liệu đó có phải là lo ngại giống nhau hoặc liên quan đến việc nó có tính nhận thức không?
Will Knight: Không, tôi nghĩ không phải vậy. Tôi nghĩ rằng câu hỏi về tính nhận thức là, giống như, phụ thuộc vào bạn hỏi ai. Có một số người sẽ luận điều rằng tất cả các hệ thống có thể có tính nhận thức ngay cả khi chúng không phải là sinh học và có một phổ quan điểm về điều đó. Nhưng tôi nghĩ rằng nhiều người, ít nhất là những người tôi đã nói chuyện, sẽ nói rằng rủi ro này không đòi hỏi tính nhận thức. Nó có thể trở nên ngoại tuyến và làm những điều không thể dự đoán được mà không cần phải là nhận thức thực sự, liệu bạn có thể nói rằng nó có tính nhận thức hay không.
Lauren Goode: Will, bạn đang nói chuyện với rất nhiều nhà nghiên cứu và chuyên gia công nghệ đang ở trong lĩnh vực này, và thực sự có vẻ như là một chút như trò chơi ghế âm nhạc đôi khi. Được rồi, chắc chắn mọi người cũng có thể nói điều tương tự về nghề báo, nhưng hãy tập trung vào trí tuệ nhân tạo. Rất nhiều những người này đến từ Google hoặc các viện nghiên cứu học thuật giống nhau hoặc họ từ OpenAI, bây giờ họ đang ở Anthropic. Thực sự rất khó để xác định những người chủ chốt là ai, ngoại trừ những người rõ ràng nhất, và tìm hiểu họ đồng lòng ở đâu và nơi họ chệch hướng. Bạn sẽ nói rằng những người là ai đang phát ngôn mạnh mẽ nhất về trí tuệ nhân tạo hiện nay và ý kiến đa dạng nhất đang đến từ đâu?
Will Knight: Chắc chắn, một số người phát ngôn mạnh mẽ nhất hiện nay là những người ở những công ty lớn có những lợi ích quan trọng. Là Sam Altman tại OpenAI hoặc các điều hành viên tại Google và Microsoft. Họ đang phát ngôn mạnh mẽ, tôi nghĩ vì nhiều lý do không chỉ là về lo ngại về trí tuệ nhân tạo. Có vẻ như có một thế giới hơi phê bình một cách cộng sinh của những người đã uống nước mát của trí tuệ nhân tạo siêu nhân. Sau đó là những người như những nhà nghiên cứu đã viết một trong những bài báo đầu tiên chỉ ra điều này, như Timnit Gebru và Margaret Mitchell tại Google, họ đã viết về những rủi ro cụ thể, hiện tại với các mô hình ngôn ngữ lớn, chẳng hạn như chúng bịa đặt và làm nhiễu loạn người đọc làm việc tại Google vào thời điểm đó và sau đó đã bị sa thải hoặc được yêu cầu rời đi tùy thuộc vào câu chuyện kể. Nhất định tôi thấy có sự phân chia giữa những người tập trung hơn vào các rủi ro gần và cảm thấy thất vọng với quan điểm về lo âu tận cùng xa xôi, có vẻ như đến từ nhiều người, hầu hết những người có nhiều quyền lực tài chính và quan tâm nhất, và những người cảnh báo về những gì chúng ta nên đối mặt với ngay bây giờ và lo lắng về việc đó là một sự lạc quan. Sau đó, Geoffrey Hinton là một trường hợp thú vị vì ông là một trong những người nổi tiếng nhất trong lĩnh vực trí tuệ nhân tạo và một trong những người phát triển hay tiên phong trong việc phát triển sâu rộng, điều này làm nền tảng cho toàn bộ quá trình học máy đã đi vào những mô hình này. Và gần đây ông đã thay đổi quan điểm của mình và trở nên lo lắng hơn, hoặc trở nên phát ngôn mạnh mẽ hơn. Ông rời khỏi Google và nói rằng chúng ta cần bắt đầu lo lắng về những rủi ro của điều này. Thực tế, tôi nghĩ ông lo lắng về những rủi ro ngắn hạn cũng như những rủi ro dài hạn, nhưng lo lắng của ông về việc trí tuệ nhân tạo điên rồ và cuối cùng kiểm soát hoặc trở nên ngoại tuyến đã nhận được tất cả các đầu báo và mọi người đã tập trung vào đó. Nhưng tôi nghĩ ông đang lo lắng một cách đáng kể về cả hai.
Michael Calore: Will, chúng ta đã thấy hai trong những bức thư mở rộng lớn này cảnh báo về những rủi ro ngay và trong tương lai của trí tuệ nhân tạo. Khi nào chúng ta sẽ thấy bức thư thứ ba và ai sẽ viết nó?
Will Knight: Ừ, tuần tới, tôi đoán sẽ có chữ ký của tất cả các nhà lãnh đạo thế giới. Tôi nghĩ đó là một rủi ro thực sự là mọi người sẽ không đặt một số vấn đề thực sự với trí tuệ nhân tạo một cách nghiêm túc vì điều này. Ý nghĩa, đó là một quãng đường dài. Và vì vậy, nếu mọi người thực sự lo lắng về những vấn đề liên quan đến việc này một cách nghiêm túc là một cách điều này điều là một cách cực kỳ tiến triển. Tôi cảm thấy có thể có một phản đối mạnh mẽ hơn. Có vẻ như đã có một số phản đối, nhưng tôi có thể thấy có nhiều người chỉ đơn giản không đánh giá cao những người này một cách nghiêm túc.
Lauren Goode: Ừ, và như báo cáo của bạn đã đề cập, Will, bức thư thực sự không đề cập đến những hại ít ỏi hơn như độ chệch, giám sát hoặc thông tin sai lệch, mà bạn đã đề cập trước đó. Và vì vậy, bạn thực sự phải tự hỏi liệu tập trung vào những mối đe dọa tồn tại lớn có làm trừng phạt những điều chúng ta nên chú ý đến vào thời điểm này hay không. Và tôi nghĩ rằng đó thực sự là một lối đi tốt cho đoạn phân khúc tiếp theo của chúng ta. Hãy nghỉ ngơi một lát và chúng ta sẽ trở lại và nói về quy định trí tuệ nhân tạo.
[Nghỉ giải lao]
Lauren Goode: Đầu tháng này, một trong những nhân vật nổi bật nhất trong lĩnh vực trí tuệ nhân tạo tạo sinh, Sam Altman, người điều hành OpenAI, đã chứng kiến trước Quốc hội về những hậu quả của các sản phẩm như ChatGPT. Ông không chỉ giải thích bằng những từ ngữ cơ bản cách công nghệ này hoạt động, mà ông thậm chí còn kêu gọi một hình thức quy định, nói với Quốc hội rằng họ nên hợp tác với các công ty trong lĩnh vực này để cố gắng xác định các quy tắc và rào cản trước khi công nghệ hoàn toàn trở nên điên rồ. Will, khi tôi đọc về điều này cách đây vài tuần, tôi phải thừa nhận, tôi tự hỏi những lời kêu gọi quy định này có chân thành không. Công nghiệp công nghệ có lịch sử dài của việc định vị chính mình ở DC sao cho có vẻ như nó muốn hợp tác với các lập pháp viên, nhưng cuối cùng quá nhiều quy định sẽ làm tan nát doanh nghiệp của họ. Tại sao OpenAI kêu gọi rào cản?
Will Knight: Ừ, tôi nghĩ đó có phần là sự lặp lại của những gì chúng ta đã thấy trước đây một phần. Và chúng ta cũng thấy Microsoft đưa ra một kế hoạch để quy định trí tuệ nhân tạo. Và Google đang hợp tác với Liên minh châu Âu, theo giả thuyết, về một số biện pháp quy định trong khi họ làm việc để xác định quy định đúng đắn. Và tôi nghĩ đó là một loại, họ biết rằng một số quy định đang đến, vì vậy nói rằng, "Ồ, chúng tôi chào đón nó" khiến họ dường như không phải là thù địch và họ cũng có thể có cơ hội định hình nó. Tôi nghĩ cũng đáng lưu ý hai điều là những người trong chính phủ thực sự không ... đại trà không có ý tưởng gì về cái này. Và vì vậy họ khá vui vẻ để chìm đầu vào một số bậc độ của các chuyên gia. Các chuyên gia làm việc trên nó sẽ như, "Chúng tôi là những người thực sự hiểu về cái này và đây là cách bạn quy định nó." Họ có phần ưu thế khi nói đến hiểu biết về công nghệ, nhưng cũng trong chính phủ, tôi đã nói chuyện với một số người trong chính phủ và họ nhìn nhận về một công nghệ, nghĩa là họ biết rằng có rủi ro, nhưng họ nhìn nhận về một công nghệ mà các nhà kinh tế đang nói có thể đem lại giá trị lớn đối với năng suất và kinh tế, làm cho nền kinh tế phát triển, và Mỹ có ưu thế về điều đó so với đối thủ của mình. Vì vậy họ không muốn làm bất cứ điều gì. Tôi nghĩ điều họ có lẽ lo lắng nhất là vô tình làm giảm tốc độ của công nghệ. Tôi nghĩ những người như Sam Altman có lẽ biết rằng có lẽ không có nhiều sự mong đợi cho các quy định cứng nhắc thực sự về công nghệ, nhưng cũng chỉ đơn giản là cố gắng trình diễn một bức mặt tốt và giúp định hình chúng, thực sự.
Michael Calore: Ngoài ra, tôi cảm thấy khi một CEO của một công ty lớn có vị thế lớn trong lĩnh vực công nghệ nói về quy định, những gì họ thực sự làm là họ tự làm cho mình trở thành chuyên gia trong lĩnh vực đó, làm tăng tầm quan trọng của họ trong cuộc trò chuyện. Điều này làm cho họ trở thành một giọng nói không thể bị bỏ qua. Nó khiến họ trở thành một lực lượng mà mọi người phải theo đuổi. Nó thực sự liên quan đến việc làm tăng giá trị của họ đối với xã hội và đưa họ vào một vị trí quyền lực hơn, phải không?
Will Knight: Ừ, đúng vậy. Điều đó là đúng. Sự thật là họ thậm chí chưa công bố chi tiết về cách mô hình AI mạnh nhất GPT-4 hoạt động. Họ có thể là những người nói, "Thôi, chúng tôi biết cách kiểm soát điều này vì chúng tôi là những người duy nhất có quyền truy cập vào nó." Ý kiến này có vấn đề. Tôi nghĩ nếu có một cái gì đó mạnh mẽ, có một lý lẽ rằng nhiều nhà khoa học nên có khả năng nghiên cứu và kiểm tra nó. Họ chưa nói rằng họ cảm thấy họ sẽ mở nó lên và làm cho nó trở nên minh bạch hơn.
Lauren Goode: Và điều đó là cốt lõi của vấn đề ở châu Âu với Google, phải không? Chúng tôi tất cả đều đưa tin về Google IO cách đây vài tuần, và một trong những điều nổi bật từ đó là, oh, thực tế, Bard, công cụ chat AI tạo sinh của họ, không khả dụng ở các quốc gia châu Âu. Và một số đồng nghiệp của chúng tôi đã rơi vào tình trạng báo cáo điều đó vì cách mà Google đang trình bày là chỉ đơn giản như, "Đây, đây là công cụ đổi mới thế giới này." Nhưng hóa ra có nhiều phần lớn của thế giới không có quyền truy cập vào nó, và đó là do khung pháp lý quy định tồn tại ở những nơi đó.
Will Knight: Ừ, đó là một câu hỏi lớn là liệu Hoa Kỳ có thể áp dụng một số quy định tương tự nơi họ yêu cầu sự minh bạch hơn. Nhưng tôi đã đọc một câu chuyện hôm nay nói rằng chính quyền Biden đang rất chia rẽ về điều này, và có nhiều người phản đối ý tưởng rằng chúng ta nên làm bất cứ điều gì như vậy vì, một lần nữa, vì họ không muốn làm trở ngại cho điều đó. Chúng ta đã thấy điều này với các công nghệ khác, như xe tự lái. Họ không muốn quy định chúng chút nào vì họ nghĩ rằng đây sẽ là một công nghệ rất mạnh mẽ, tuyệt vời, và Hoa Kỳ sẽ dẫn đầu trong nó. Điều đó là điều dễ hiểu. Nhưng sau đó bây giờ chúng ta đang đối mặt với nhiều câu hỏi về độ tin cậy của những hệ thống này, và họ đang phải đưa ra thêm nhiều quy định. Ừ, tôi nghĩ có thể lặp lại điều đó.
Lauren Goode: Bạn nghĩ sao về khả năng chúng ta sẽ thấy quy định thực sự về trí tuệ nhân tạo trong tương lai gần?
Will Knight: Tôi nghĩ chúng ta sẽ thấy một số quy định. Tôi nghĩ rằng có rõ ràng — có một sự mong đợi, và một trong những lý do thực sự tất cả những điều này đang trong sự căng thẳng là rằng Hoa Kỳ cùng với Trung Quốc và châu Âu, đều muốn đặt ra quy định của họ khi đến với quy định. Bởi vì nếu bạn là người định nghĩa quy định, thường thì chúng được áp dụng ở những nơi khác. Và có thể là một loại vai trò lãnh đạo. Tôi nghĩ sẽ có một số quy định, nhưng nghĩa là nó sẽ khả thi nhất ở Hoa Kỳ, tương đối là yếu nhất. Và có, câu hỏi này thực sự rất thú vị. Tôi đã nói chuyện với một số nhà làm phim và nhà văn tại Hollywood rất quan tâm đến mối đe doạ mà trí tuệ nhân tạo có thể gây ra, và họ đang nghĩ về điều giả tạo, điều giả tạo từ trí tuệ nhân tạo, và tôi nghĩ một trong những điểm rõ ràng nhất có thể là quy định về deepfakes, yêu cầu một số hạn chế về deepfakes, hoặc các nền tảng không cho phép chúng được phân phối mà không có sự cho phép. Nhưng đó chỉ là một phần nhỏ của cả một ngăn xếp trí tuệ nhân tạo.
Michael Calore: Và tôi nghĩ rằng một số quy định này sẽ đến từ khu vực tư nhân. Các nền tảng đặt ra quy tắc về những gì có thể được đăng, các công ty đặt ra quy tắc về việc họ sử dụng công cụ của mình. Và đó không nhất thiết là quy định, nó chỉ là sự tự kiểm soát.
Will Knight: Đúng, và thường thì không có tác dụng kinh khủng khi các nền tảng làm như vậy hoặc khi các công ty nói rằng. Nó không ngăn chặn người ta làm những điều đó. Và chắc chắn thấy với những công cụ biến đổi hình ảnh này, các công cụ tổng hợp giọng nói, có ... ý kiến là có rất nhiều giọng nói deepfake đang lan tràn trên Twitter và ngày càng có nhiều hình ảnh và video bị biến đổi, và nó trở nên dễ dàng hơn và dễ dàng hơn để thực hiện điều đó.
Lauren Goode: Trên thực tế, chúng tôi đã ghi một tập podcast Gadget Lab chỉ vài tuần trước đây nơi nhà sản xuất của chúng tôi, Boone, mô phỏng giọng nói của chúng tôi và giọng nói của anh ấy, và nó thực sự là rất giống.
Will Knight: Ồ, trời ơi.
Lauren Goode: Boone thực sự, anh ấy giữ quyền lực tất cả ở đây. Anh ấy có tất cả âm thanh của chúng tôi mà anh ấy có thể đưa qua một công cụ trí tuệ nhân tạo, và đó sẽ là hồi kết cho chúng tôi. Will, bạn dường như khá lạc quan về khả năng của việc quy định ở đây tại Hoa Kỳ, điều đó có lẽ làm tôi ngạc nhiên một số cách. Tôi thường nghĩ về những điều này diễn ra khá chậm rãi. Và theo quan điểm trước đó của bạn rằng có lẽ một số nghị sĩ của chúng ta không hiểu đầy đủ về công nghệ, và liệu có tạo ra một loại rào cản cho sự tiến triển không? Nhưng dường như bạn nghĩ rằng đây là một khả năng thực sự.
Will Knight: Thôi, tôi nghĩ có lẽ tôi đã nói nhầm nếu tôi nghe có vẻ lạc quan. Tôi nghĩ tôi lạc quan về việc có nhiều động lực để cố gắng có một số quy định. Tôi nghĩ rằng có điều gì đó sẽ xuất hiện ở Hoa Kỳ nhưng tôi nghi ngờ nó sẽ rất ... Tôi nghi ngờ rằng nó sẽ có vẻ khá không hiệu quả nếu đó là một phép đo của tôi —
Lauren Goode: Vâng, nước sốt yếu. Dự đoán của Will, quy định nước sốt yếu.
Will Knight: Nhưng tôi thường bất ngờ về tốc độ mà EU và Trung Quốc đã di chuyển và cả hai đã nằm ở vị trí hàng đầu về quy định. Và tôi nghĩ rằng điều đang thúc đẩy nó có lẽ sẽ ít hơn — nếu nó di chuyển nhanh chóng — có lẽ nó sẽ ít về việc, "Ồ, chúng ta thực sự muốn đảm bảo rằng điều này được thực hiện an toàn" hơn là chỉ là Hoa Kỳ đang đặt ra quy tắc của mình trong cuộc trò chuyện toàn cầu đó. Bạn có thể deepfake tôi để nói điều gì đó thông minh hơn.
Michael Calore: Oh, đừng lo lắng. Chúng tôi sẽ làm điều đó. Chúng tôi sẽ.
Lauren Goode: Chúng tôi đang làm điều này.
Michael Calore: Tất cả những gì chúng tôi sử dụng bản ghi âm này, chỉ là để bắt giọng của bạn, để đưa vào mô hình.
Will Knight: Đúng. Điều đó có ý nghĩa. Chỉ cần khiến tôi nói nhiều điều nhất có thể.
Lauren Goode: Sớm thôi, bạn sẽ tham gia podcast này mỗi ngày. Chúng tôi sẽ biến nó thành podcast hàng ngày nhờ vào trí tuệ nhân tạo. Được rồi. Hãy nghỉ ngơi một lát và chúng tôi sẽ trở lại với những đề xuất đầy con người của chúng tôi.
[Nghỉ]
Lauren Goode: Will, tôi hào hứng với lời đề xuất của bạn, vì nó có lẽ liên quan đến mèo. Đề xuất của bạn tuần này là gì?
Will Knight: Bây giờ tôi sẽ phải làm bạn thất vọng. Tôi ước rằng mình có một gợi ý khác liên quan đến mèo. Tôi có nghĩa là, chỉ cần nói về mèo trên TikTok là... Luồng thông tin của tôi chủ yếu là về mèo.
Lauren Goode: Đó là thói quen của bạn.
Will Knight: Chỉ là mèo. Được rồi. Tôi sẽ đề xuất cuốn sách Antimatter Blues của Edward Ashton. Đây là phần tiếp theo của Mickey7, đang được chuyển thể thành một bộ phim. Nó kể về một bản sao và anh ta là một bản sao hơi ngốc nghếch và cuộc phiêu lưu của anh ta trên một trạm địa cầu ngoại. À, thực sự, tôi có thể đề xuất thêm một bộ phim truyền hình có tên là Fired on Mars, mà một người bạn của tôi làm. Nói về một chàng trai làm thiết kế đồ họa làm việc trong một trạm địa cầu Mars, anh ta bị sa thải và gặp phải nhiều rắc rối khác nhau.
Lauren Goode: Anh ấy có làm việc cho Elon Musk không? Bởi vì điều đó có ý nghĩa nhiều.
Will Knight: Điều đó sẽ có ý nghĩa.
Lauren Goode: Và mọi người có thể xem bộ phim truyền hình đó ở đâu?
Will Knight: Đó là trên HBO.
Lauren Goode: Oh, OK.
Will Knight: Thực sự là trên Max. Xin lỗi, tôi đã nhầm hoàn toàn.
Michael Calore: Oh, đừng lo. Mọi người đều nhầm hoàn toàn về điều đó.
Lauren Goode: Chúng tôi vẫn gọi nó là HBO trong chương trình này.
Michael Calore: Yeah. FKA HBO, bây giờ là Max.
Lauren Goode: Cuối cùng, chúng tôi sẽ đặt cho nó một ký hiệu. Tuy nhiên, cả hai đều nghe có vẻ thú vị. Cảm ơn bạn về gợi ý. Những gợi ý, nhiều hơn một, Will. Mike, gợi ý của bạn là gì?
Michael Calore: Thực sự, nó không liên quan đến du lịch vũ trụ hoặc trí tuệ nhân tạo, nhưng tôi sẽ gợi ý—
Lauren Goode: Có phải là dưa chua không?
Michael Calore: Oh, nó có thể liên quan đến dưa chua.
Lauren Goode: Điều này là gì?
Michael Calore: Bee's Wrap.
Lauren Goode: OK, nói thêm đi.
Michael Calore: Được rồi. Đây là lớp phủ, W-R-A-P.
Lauren Goode: Oh, OK. Tôi nghĩ nó chỉ là một đám ong—
Michael Calore: Đang rap?
Lauren Goode: ... rap. Anh đã nghe tin đồn về bài hát mới nhất của họ chưa?
Michael Calore: Oh, không. Không, không, không, không, không.
Lauren Goode: OK, xin lỗi.
Michael Calore: Hãy để tôi suy ngẫm triết học một chút. Đây là màng bọc thức phẩm. Nó thay thế cho màng bọc nhựa hoặc túi nhựa hoặc bất kỳ loại nhựa sử dụng một lần nào khác mà bạn có thể sử dụng để bảo quản thực phẩm trong tủ lạnh hoặc trong nhà bếp của bạn. Đó là một tờ bông được phủ bằng sáp ong và dầu cây, và nó có vẻ tạo thành một kín đáo xung quanh bất cứ thứ gì bạn muốn bảo vệ. Bạn có thể đặt nó lên trên một bát húmus hoặc một bát sốt salsa. Tôi đã sử dụng một cái nhỏ để bọc nửa cây bí ngô hoặc nửa quả hành tây. Nếu bạn chỉ sử dụng nửa quả rau củ, thông thường bạn chỉ cần bọc bằng màng nhựa. Nhưng nhựa thì kinh khủng như chúng ta biết. Nó chỉ nằm trong các đống rác và rất, rất chậm chạp phân hủy thành các mảnh nhựa nhỏ hơn rơi vào các dòng nước và kết thúc trong dạ dày của chúng ta. Chúng ta nên ngừng sử dụng nhựa và đây là một cách tuyệt vời để làm điều đó. Tôi biết đến chúng vì chúng ta đã viết về chúng trên blog.mytour.vn, chúng ta thực sự đề xuất chúng là một trong những sản phẩm thân thiện với môi trường yêu thích của chúng ta, và chúng ta cần chụp một bức ảnh của chúng. Tôi đã mua một số từ The Everything Store. Tôi nghĩ nó là 17 đô la cho một bộ ba. Bộ ba đi kèm với một cái nhỏ, một cái vừa và một cái lớn, đó chính là tất cả những gì bạn cần.
Lauren Goode: Phụ thuộc vào kích thước của ong.
Michael Calore: Phụ thuộc vào kích thước của ... không.
Lauren Goode: Xin lỗi, trái tim tôi đang loạng thoạng, chỉ là nghe về điều này.
Michael Calore: Chắc chắn. Chắc chắn.
Lauren Goode: Tôi biết những cái đùa này có lẽ thực sự làm đau lòng. Xin tiếp tục.
Michael Calore: Tôi chỉ cảm thấy thất bại quá.
Lauren Goode: Tôi sẽ sử dụng bọc ong.
Michael Calore: Vâng, nó được gọi là Bee's Wrap.
Lauren Goode: Bee's Wrap.
Michael Calore: Có nhiều công ty sản xuất loại này. Tôi sẽ gợi ý Bee's Wrap vì đó là thứ tôi mua và tôi thích. Và đó là bộ ba dưới 20 đô la. Bạn có thể mua nó ở các cửa hàng thực phẩm dành cho người theo chủ nghĩa mới hay bạn cũng có thể mua trực tuyến. Nhưng nó tuyệt vời. Tôi sử dụng chúng mọi lúc. Và tôi sẽ nói nếu bạn đang rửa chúng, điều bạn nên làm giữa các lần sử dụng, hãy rửa chúng bằng nước lạnh, vì rửa chúng bằng nước nóng sẽ làm hỏng chúng vì nó sẽ làm tan chảy nến ong và nó sẽ chảy hết vào chiếc bồn rửa của bạn.
Lauren Goode: Gợi ý này thật là tuyệt vời.
Michael Calore: Lauren, tôi cảm thấy như tôi nên cứu tất cả mọi người khỏi bất kỳ trò chơi từ vựng nào nữa về ong bằng cách hỏi bạn gợi ý gì.
Lauren Goode: Oh, được. Phút im lặng cho kết thúc của Succession. Tuyệt vời. Những người trong số bạn đã nghe podcast của chúng tôi biết rằng vài tuần trước, tôi đã gợi ý rằng bạn xem Succession, mùa thứ tư vừa bắt đầu, và tôi nói hãy xem nó từ đầu để bạn có thể hoàn toàn lạc quan với gia đình Roy và cảm thấy đính kèm với chương trình chủ nhật này trên kênh trước đây là HBO. Tập cuối mùa vừa qua, nó là một tác phẩm truyền hình kịch tính. Nhưng nếu bạn cảm thấy giống như tôi sau đó, chỉ là trống rỗng và tôi muốn thêm nhiều hơn, và bây giờ tôi chỉ đang cuộn Instagram tìm kiếm các hình ảnh Succession và nhắn tin cho tất cả bạn bè của mình và nói, "Ôi trời ơi, bạn đã thấy điều gì xảy ra ở cuối chưa?" Bạn nên nghe podcast Succession. Yeah. Thông tin đầy đủ, người dẫn chương trình podcast này, Kara Swisher, tôi biết cô ấy khá tốt. Đôi khi cô ấy chiếm chỗ đỗ xe của tôi, điều đó là một câu chuyện khác hoàn toàn. Nhưng tôi đã từng làm việc với Kara, cô ấy là một người phỏng vấn podcast tuyệt vời, và cô ấy có một podcast cho HBO là podcast theo dõi Succession mỗi tuần mà bạn có thể nghe. Và nên tuần này cô ấy đã có cuộc phỏng vấn với Alexander Skarsgård, Jeremy Strong và Mark Mylod—hai diễn viên trên chương trình và sau đó là đạo diễn. Bạn phải kiểm tra nó. Nó tuyệt vời. Đó là loại nội dung Succession thêm vào mà bạn cần, nếu bạn, giống như tôi, đang than khóc vì kết thúc chương trình.
Michael Calore: Vậy là một gợi ý tốt. Và đứng như Kara, và đứng như tất cả những người làm báo chí làm những podcast về các chương trình, nhưng tôi hơi chán chương trình có podcast.
Lauren Goode: Tôi có xu hướng đồng ý, ngoại trừ chương trình này.
Michael Calore: Vậy nên chương trình này là cái khiến bạn muốn thêm, và điều bạn muốn thêm là những cuộc trò chuyện về chương trình? Và nếu họ có thể làm một podcast được sản xuất tốt, thì đó là điều mà bạn sẽ nghe.
Lauren Goode: Đúng, vì nhiều podcast về các chương trình truyền hình, và không để làm mất uy tín của họ, nhưng chúng đều là những chương trình hâm mộ. Đó là một vài người rất, rất thích chương trình như tôi, và họ chỉ ngồi xung quanh nói về nó như những người bạn. Kara thực sự có cơ hội nói chuyện với Brian Cox, hoặc đạo diễn hoặc nhà văn, hoặc một số ngôi sao của chương trình. Và vì vậy, bạn như là, bạn đang nghe trực tiếp từ họ về cách họ phát triển nhân vật của họ và cách họ nghĩ về các dòng cốt truyện. Và tôi thực sự thích điều đó.
Michael Calore: Vậy nên Kara có cái mà tôi gọi là máy móc, đó là khi cô ấy phỏng vấn bạn, bạn cảm thấy như bạn cảm nhận được sự hiện diện của cô ấy.
Lauren Goode: Bạn đã có mặt trong tâm hồn cô ấy. Chúng ta đã có mặt trong tâm hồn cô ấy, và bạn biết điều này.
Michael Calore: Cô ấy là một phỏng vấn viên rất quyết định.
Lauren Goode: Đúng vậy.
Michael Calore: Cô ấy là một phỏng vấn viên rất giỏi, trong việc cô ấy khiến đối tượng phỏng vấn nói về những điều mà không có phỏng vấn viên nào khác có khả năng khiến họ nói về.
Lauren Goode: Rất nhiều. Cô ấy rất giỏi trong việc nhận diện nhược điểm của người khác và thể hiện điều đó trong podcast. Và điều này khác biệt, tôi nghĩ khi bạn phỏng vấn các nhà quản lý công nghệ, như cô ấy làm liên tục, nơi đây là những người ở vị trí quyền lực cực kỳ và bạn hơi như, bạn đang đấm lên và bạn đang hỏi họ những câu hỏi rất khó khăn về cách họ điều hành doanh nghiệp của họ, so với khi bạn cũng có thể là một người phỏng vấn nhưng là một fan và trò chuyện với một người hoàn toàn trong yếu tố sáng tạo tạo một chương trình. Tôi nghĩ đó là một tâm trạng khác biệt một chút.
Michael Calore: Vậy đây có phải là một cơ hội nhẹ cho bạn làm một trong những cái này lần tới không?
Lauren Goode: Không, thực sự tôi không có thời gian. Tôi sẽ thích nếu ở trong một thế giới lý tưởng, chắc chắn. Nhưng tôi đã có một podcast khác, trong trường hợp bạn chưa biết, và tôi đã cố gắng để nó vừa vặn vào mọi ngày. Không, tôi không tự nguyện làm một podcast về chương trình truyền hình, nhưng tôi thích nghe chúng.
Michael Calore: Thế nếu đồng hành là Alexander Skarsgård thì sao?
Lauren Goode: Tôi đồng ý. Tôi ở đây. Yêu Skarsgård.
Michael Calore: Hoàn hảo.
Lauren Goode: Vâng, đó là tất cả về chương trình của chúng tôi. Cảm ơn bạn rất nhiều, Will, đã tham gia cùng chúng tôi và đã làm cho chúng tôi từ bỏ ý niệm rằng chúng ta đang trên đà sự kiện kéo dài vì trí tuệ nhân tạo.
Will Knight: Vâng, tôi chắc chắn hy vọng tôi đúng.
Lauren Goode: Tôi cũng vậy. Chúng tôi cả hai đều vậy. Và cảm ơn tất cả các bạn đã lắng nghe. Nếu bạn có phản hồi và vẫn đang ở đây, bạn có thể tìm thấy chúng tôi trên Twitter, chỉ cần kiểm tra các ghi chú của chương trình. Chúng tôi rất vui được nghe từ bạn. Nhà sản xuất của chúng tôi là chính Boone Ashworth, người đàn ông thực sự xuất sắc. Tạm biệt trong lúc này. Chúng tôi sẽ trở lại tuần sau.
[Âm nhạc kết thúc của Gadget Lab đang phát]
0 Thích