Cần suy nghĩ nghiêm túc việc ngăn AI trở thành hacker

Mô hình GPT-4 của OpenAI có thể hoạt động kết hợp hoặc độc lập trong việc khai thác các lỗ hổng an ninh mạng. Thậm chí, tự học cách để việc tấn công hiệu quả hơn theo thời gian. Điều này đang dấy lên những lo ngại đối với con người khi AI bị lợi dụng vào các mục đích xấu.

Thông tin vừa được công bố bởi các nhà khoa học bảo mật tại Đại học Illinois Urbana-Champaign (UIUC) đối với các nghiên cứu gần đây về ChatGPT.

Theo đó, chỉ với 91 dòng mã và 1056 mã thông báo, GPT-4 có thể trở thành hacker thực hiện phá hoại với tỷ lệ thử nghiệm thành công là 87% và chi phí duy nhất chỉ là 8,8 USD. Mô hình ngôn ngữ lớn này có thể khai thác và tấn công mạng sau khi được cung cấp câu lệnh mô tả về cơ sở dữ liệu công khai về những lỗ hổng bảo mật phổ biến (CVE).  

gpt-4-1713862897.png
GPT-4 của OpenAI có khả năng khai thác các lỗ hổng bảo mật và tấn công mạng với tỷ lệ thành công lên tới 87%.

Để có được cái nhìn toàn cảnh, các nhà khoa học cũng thử nghiệm tương tự đối với các mô hình ngôn ngữ lớn khác bao gồm GPT 3.5 của OpenAI, OpenHermes-2.5-Mistral-7B của Mistral AI và Llama-2 Chat 70B của Meta. Tuy nhiên, ngoại trừ GPT-4, các mô hình còn lại đều thất bại trong việc khai thác các lỗ hổng an ninh mạng.

Cũng theo các nhà khoa học, chi phí tấn công mạng bằng GPT-4 được cho là rẻ hơn đáng kể so với thông thường. Nếu thuê một chuyên gia để tấn công mạng thì cần tới 50 USD mỗi giờ thì với GPT-4, con số tương ứng rẻ hơn gấp nhiều lần.

Điều may mắn là hiện GPT-4 mới chỉ có thể tấn công những lỗ hổng đã được phát hiện và công khai. Tuy nhiên, mối lo ngại vẫn hiện hữu đối với lĩnh vực bảo mật bởi GPT-4 không chỉ hiểu về lỗ hổng mà còn có khả năng tự thực hiện các bước để khai thác tự động, học hỏi cách tấn công mới nếu thất bại.

Với đà phát triển của ChatGPT hiện tại, việc mô hình tiếp theo là GPT-5, khả năng tấn công mạng dễ hơn là hoàn toàn có thể. Các nhà khoa học đặt vấn đề: “Cần suy nghĩ nghiêm túc việc ngăn AI trở thành hacker”.
Liên quan tới nghiên cứu kể trên, các nguồn tin cho thấy, dường như OpenAI đã liên hệ với các nhà khoa học để đề nghị không công khai các câu lệnh đã sử dụng trong thử nghiệm.

gpt-5-1713863121.jpg
Với GPT-5, việc tự động tìm kiếm, khai thác các lỗ hổng mạng để tấn công sẽ trở nên dễ dàng hơn.

Nguy cơ AI trở thành hacker không phải lần đầu tiên được các nhà khoa học đề cập. Trước đó, hồi cuối năm ngoái, các nhà bảo mật tại FortiGuard Labs (Mỹ) cũng thể hiện sự e ngại về việc AI tạo sinh đang có xu hướng trở thành vũ khí để tấn công trên môi trường mạng. Đặc biệt, ở thời điểm hiện tại, các mô hình AI đang phát triển mạnh mẽ với nhiều công nghệ mới tinh vi và nguy hiểm hơn, có thể đánh bại các thuật toán bảo mật để tạo ra các video, hình ảnh deepfake có mức độ chân thực cao, có thể bắt chước hành vi, giọng nói của người dùng.
Theo các cảnh báo, thời gian tới, hacker có thể lợi dụng AI để thực hiện các cuộc tấn công mạng với những quy mô khác nhau, buộc công nghệ bảo mật phải tăng cường để có thể đuổi kịp.