Сегодня многие специалисты в области IT используют искусственный интеллект для написания программ. Однако новое исследование показывает, что такой подход несет в себе опасность. Код, сгенерированный ИИ, изобилует ссылками на несуществующие сторонние библиотеки. Это создает множество возможностей для несанкционированного доступа к программным продуктам.

    В проведенном исследовании были проанализированы 16 широко используемых больших языковых моделей, которые сгенерировали 576 000 образцов кода. Но 440 000 зависимостей пакетов содержали ссылки на несуществующие библиотеки (специалисты назвали их «галлюцинированными»). Отметим, что зависимость — это важный компонент кода, который требуется его отдельному фрагменту для правильной работы. Она является неотъемлемой частью современных программ. Благодаря зависимостям специалистам не приходится переписывать большие куски кода.

    Abstract images of a robot working on many computer screens.

    Ошибки ИИ позволяет злоумышленникам проводить атаки, которые заставляют программный пакет обращаться к неправильной зависимости. В частности, благодаря этому хакеры могут подменять вредоносным ПО легитимное, присваивая первому отметку более поздней версии. Иначе говоря, компьютерные вирусы могут «трансформироваться» в программы, которые воспринимаются как оригинальные.

    «Галлюцинации» ИИ возникают, когда языковая модель выдает результаты, которые фактически неверны, бессмысленны или совершенно не связаны с поставленной задачей. Автор: Федор Аверьев

    Нет больше статей