
Ученые из Техасского университета в Сан-Антонио (UTSA) провели одно из самых масштабных на сегодня исследований рисков использования искусственного интеллекта (ИИ) в программировании. В опубликованной работе ученые показали, что модели вроде ChatGPT могут генерировать опасный код, включая ссылки на несуществующие программные библиотеки.
Это явление получило название «галлюцинация пакетов» — когда ИИ предлагает использовать сторонний пакет, которого в реальности не существует.
Открыть "Ученые выявили уязвимость в ИИ-помощниках для программистов" на FiNE NEWS.
Свежие комментарии