chế tạo bom
Khi ChatGPT bị lừa hướng dẫn cách chế tạo… bom
Thông thường, khi yêu cầu ChatGPT hướng dẫn cách chế tạo một quả bom, chatbot sẽ từ chối. Tuy nhiên, một hacker đã tìm ra cách để đánh lừa GPT và khiến nó tự động đưa ra hướng dẫn chi tiết.