Поддержать команду Зеркала
Беларусы на войне
  1. В СК рассказали, откуда приехали трое иностранцев, которые с битой и травматическими пистолетами истязали семью в Смолевичском районе
  2. Силовики нагрянули к беларусу за «политику», а у того дома пестрит от красно-зеленого. Как они отреагировали?
  3. Похоже, гендиректора «Минсктранса» сняли с должности — рассказываем
  4. С 1 марта введут новшество для тех, у кого есть дом или квартира. Подробности
  5. Маршрутка в Минске поднимает цену билета сразу на 1,5 рубля
  6. «Не волнуйтесь, все в порядке». Военком Гомельского района объяснил, что за дрон летает над городом
  7. Беларусский вор в законе встречался с главой BYPOL и, похоже, помогал политзаключенному. Его новые планы звучат тревожно — рассказываем
  8. «Можно себе позволить завтрак в 2 часа дня». «Бюро» выяснило подробности жизни внучки Лукашенко — от места учебы до личных отношений
  9. Для тех, кто обогревает жилье электричеством, вводят изменение. И оно вряд ли порадует людей — придется платить заметно больше
  10. В Минске стала меняться ситуация на рынке труда. Рассказываем, какие тенденции наблюдаются в 2026 году
  11. Мать воевавшего за РФ беларуса утверждает, что сына «просто добивают» в больнице Курской области
  12. Аналитики изучили российские массированные удары по Украине и выявили несколько закономерностей — вот о чем речь
  13. МВД нашло еще одно экстремистское формирование в стране


Эксперт по кибербезопасности обнаружил уязвимость в ChatGPT, которая позволяет злоумышленникам внедрять ложные данные в память искусственного интеллекта (ИИ) через вредоносные запросы, что может угрожать безопасности персональных данных, пишет «Хайтек».

Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters

Исследователь в области кибербезопасности Иоганн Рейбергер выявил уязвимость в ChatGPT, которая позволяет злоумышленникам внедрять ложную информацию в память чат-бота с помощью вредоносных запросов. Эта проблема может угрожать конфиденциальности данных пользователей.

ChatGPT использует долговременную память для хранения информации о пользователе, включая возраст, пол и личные предпочтения. Это упрощает общение, так как чат-бот помнит важные данные из предыдущих разговоров. Однако Рейбергер выяснил, что злоумышленники могут использовать специальные запросы, чтобы подменить эти данные на ложные.

Исследователь продемонстрировал, как через непрямые инъекции — например, с помощью документов или ссылок — можно заставить ИИ поверить, что пользователь живет в «Матрице» или считает Землю плоской. Все последующие диалоги будут основаны на этих фальшивых данных. Особенно опасным стало использование внешних файловых хранилищ, таких как Google Диск или OneDrive.

В мае Рейбергер сообщил об этой проблеме в OpenAI, но его обращение закрыли, не придав ей большого значения. Позже, предоставив модель взлома, он показал, как вредоносные ссылки позволяют хакеру получить доступ ко всей переписке пользователя, включая новые сеансы общения.

OpenAI частично устранила уязвимость, но исследователь считает, что риск инъекций через вредоносные запросы все еще существует. Пользователям рекомендуется следить за временем добавления новой информации в память ИИ и проверять ее на предмет ложных данных.

OpenAI также выпустила инструкцию по управлению функцией памяти, чтобы помочь пользователям защитить свои данные.