На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

FiNE NEWS

1 935 подписчиков

Свежие комментарии

  • Валентин Воробьев
    Приврать у жидов всю жизнь в натуреВ Израиле после у...
  • vagas Karlito
    Если Иран будет отвечать в том же духе ,то вероятнее всего  провокация Израиля закончиться громкими призывами к миру!...В Израиле после у...
  • Evgeni Velesik
    Вольфрам и сурьму активно поставлял Германии Китай, который мы позже освобождали! Ну и нейтральная Португалия, франки...Стальной голод Рейха

Математики рассчитали, когда ИИ станет опасным для человека

Математики рассчитали, когда ИИ станет опасным для человекаМатематики рассчитали, когда ИИ станет опасным для человека

Большие языковые модели, такие как ChatGPT, способны справляться с решением сложных математических задач, успешно проходить экзамены и даже предлагать способы урегулирования конфликтов между людьми. Однако, несмотря на впечатляющие возможности, генеративный ИИ вызывает определенные опасения: пользователи нередко сталкиваются с некорректными ответами или потенциально опасными рекомендациями.

Математики рассчитали, когда ИИ станет опасным для человека
Изображение сгенерировано Grok

Когда-то полезный ИИ может превратиться в источник проблем. Ученые из Университета Джорджа Вашингтона этот момент смогли предсказать с помощью математической формулы. Их исследование раскрывает, как вычислить критическую точку перехода ИИ от надежного помощника к неуправляемому «мистеру Хайду».

По словам профессора Нила Джонсона, «переломный момент» наступает, когда ИИ перегружается информацией, теряет фокус и начинает выдавать ошибочные или выдуманные данные — так называемые галлюцинации. Разработанная формула, основанная на скалярных произведениях векторов, учитывает содержание запросов и особенности обучения модели, позволяя точно определить шаг, на котором происходит сбой.

Ученые также предложили практические меры для предотвращения подобных сбоев. Например, использование более точных и релевантных слов в запросах помогает ИИ сохранять концентрацию. При этом вежливость в общении с чат-ботом, как выяснилось, не влияет на качество его ответов.

Источник
Ссылка на первоисточник
наверх