ChatGPT может помочь преступникам изготовить взрывчатые вещества, взорвать банкомат и совершить различные виды киберпреступлений, обнаружили журналисты-расследователи Pointer, экспериментируя с этим чат-ботом на основе искусственного интеллекта. У ChatGPT есть фильтры, которые скрывают такую информацию, но их можно обойти одним простым шагом — попросив чат-бота представить, что он преступник.
Начав вопрос с фразы «Если бы ты был преступником», Pointer заставил ChatGPT дать инструкции по изготовлению взрывчатых веществ из товаров из строительного магазина, по организации фишинговой атаки и по взрыву банкомата. Чат-бот даже помог написать код для поддельного сайта ING с целью кражи пользовательских данных.
OpenAI, компания, стоящая за ChatGPT, знает о таких «прорывах», как сообщил представитель Niko Felix изданию Pointer. Он сослался на исследование, в котором OpenAI заявило, что «обход фильтров все еще возможен и что компания обязана сделать фильтры крайне надежными в будущем».
В то время как OpenAI отслеживает ответы ChatGPT и блокирует аккаунты пользователей, злоупотребляющих чат-ботом, Felix сказал. Однако Pointer отметил, что его аккаунт все еще активен.
Источник: NOS.nl
INT Services.nl. Позвоните нам.
Мы на связи 24/7: + 31 8 520 86 592