OpenAI hợp tác với phòng thí nghiệm Los Alamos để nghiên cứu về an toàn AI, chống lại viễn cảnh Skynet

OpenAI đang hợp tác với Phòng thí nghiệm quốc gia Los Alamos để nghiên cứu cách trí tuệ nhân tạo có thể được sử dụng để chống lại các mối đe dọa sinh học có liên quan tới AI.

Los Alamos là một trong những phòng thí nghiệm quốc gia hàng đầu của Mỹ, nghiên cứu về đa ngành. Viện này được thành lập lần đầu tiên tại New Mexico (Mỹ) trong thế chiến thứ II để phát triển bom nguyên tử, gần đây đang đặc biệt ưu tiên nghiên cứu các vấn đề về an ninh sinh học và cách AI có thể được sử dụng trong phòng thí nghiệm.

OpenAI và Phòng thí nghiệm quốc gia Los Alamos vừa công bố hợp tác chiến lược liên quan tới các vấn đề an toàn của AI.

los-alamos-1720931063.jpg

Phòng thí nghiệm quốc gia Los Alamos của Mỹ là một trong những cơ sở nghiên cứu khoa học công nghệ hàng đầu thế giới.

Trong tuyên bố phát đi của mình, OpenAI cho biết, mối quan hệ đối tác này là một nghiên cứu về cách để trí tuệ nhân tạo (AI) có thể được sử dụng an toàn trong môi trường phòng thí nghiệm để thúc đẩy nghiên cứu khoa học sinh học.

Tuy nhiên, tuyên bố của Phòng thí nghiệm Los Alamos lại nhấn mạnh nhiều hơn vào thực tế là các nghiên cứu trước đó "phát hiện ra rằng ChatGPT-4 đang tạo ra sự gia tăng nhẹ trong việc cung cấp thông tin có thể dẫn đến các mối đe dọa sinh học".

Những cuộc thảo luận về AI cho đến nay vẫn bao gồm rất nhiều lo ngại về việc trí tuệ nhân tạo có thể tạo ra một thực thể độc lập, có nhận thức, có khả năng gây hại cho nhân loại theo một cách nào đó. Sự lo lắng về trí thông minh tổng quát tiên tiến (AGI), trong đó AI có thể thực hiện lý luận và logic nâng cao có thể dẫn đến viễn cảnh giống Skynet (cỗ máy AI do con người tạo ra với khả năng vận hành độc lập nhưng sau đó quay lại tấn công hủy diệt chính con người).

Kể từ khi ChatGPT ra đời, nhiều người đã ngay lập tức nghĩ đến nỗi lo sợ hủy diệt đó. Vấn đề cấp bách được đặt ra là làm thế nào để những công cụ như ChatGPT không bị lợi dụng để tạo ra những loại vũ khí (mối đe dọa) sinh học mới.

skynet-1720931232.webp

AI càng phát triển, nỗi lo sợ viễn cảnh Skynet càng khiến nhiều người bất an.

Phòng thí nghiệm Los Alamos nhiều lần tuyên bố rằng các mối đe dọa sinh học do AI hỗ trợ có thể gây ra rủi ro đáng kể. Những rủi ro đó có thể đến từ những người không phải là chuyên gia trong phòng thí nghiệm và AI.

Thực tế, có thể OpenAI sẽ không thoải mái khi thừa nhận những tác động về an ninh khi sản phẩm của họ có thể bị khủng bố sử dụng. Chỉ tính riêng các các thuật ngữ "mối đe dọa" hoặc "các mối đe dọa" đã được Los Alamos sử dụng tới năm lần, trong khi tuyên bố của OpenAI chỉ sử dụng một lần.

Erick LeBrun, một nhà khoa học nghiên cứu tại Los Alamos, cho biết: "Tiềm năng tăng trưởng của AI là vô tận. Tuy nhiên, việc đo lường và hiểu được bất kỳ mối nguy hiểm tiềm ẩn hoặc việc sử dụng sai mục đích AI tiên tiến liên quan đến các mối đe dọa sinh học vẫn chưa được khám phá nhiều. Công việc này với OpenAI là một bước quan trọng hướng tới việc thiết lập một khuôn khổ để đánh giá các mô hình hiện tại và tương lai, đảm bảo sự phát triển và triển khai có trách nhiệm các công nghệ AI".

Mặc dù vậy, Los Alamos vẫn khá lạc quan về tương lai của công nghệ AI, ngay cả khi có những rủi ro tiềm ẩn: “Công nghệ AI rất thú vị vì nó đã trở thành một động cơ mạnh mẽ cho sự khám phá và tiến bộ trong khoa học và công nghệ. Mặc dù điều này phần lớn sẽ dẫn đến những lợi ích tích cực cho xã hội. Nhưng nếu những mô hình tương tự này rơi vào tay của một kẻ xấu, nó có thể biến đổi và tạo ra các mối đe dọa sinh học. Điều quan trọng là phải xem xét rằng bản thân AI không phải là mối đe dọa, mà chính cách nó có thể bị sử dụng sai mục đích mới là mối đe dọa”.

Việc OpenAI bắt tay với LANL diễn ra trong bối cảnh công ty đang vướng phải nhiều rắc rối pháp lý, đặc biệt là liên quan đến Microsoft. Dù đã rót vốn 13 tỷ USD vào OpenAI hồi năm ngoái, Microsoft đã bất ngờ tuyên bố rút lui khỏi hội đồng quản trị của công ty vào ngày 10/7, sau khi Liên minh Châu Âu thông báo OpenAI có thể bị điều tra chống độc quyền do hợp tác với Microsoft.