
Исследователи из Калифорнийского и Висконсинского университетов в США разработали технику под названием Fun-Tuning, которая делает модели искусственного интеллекта Gemini от Google более уязвимыми к атакам типа prompt injection — «инъекции промта» — тип кибератак, при которых хакер внедряет ложные промты (описание задачи) или модифицирует существующие.
Этот метод повышает вероятность успешного взлома моделей путём внедрения скрытых инструкций в тексты, читаемые моделью ИИ.
Открыть "Хакеры взломали ИИ Gemini с помощью собственных инструментов модели" на FiNE NEWS.
Свежие комментарии