ШІ-алгоритми здатні поширювати кремлівські меседжі з масштабом і швидкістю, недосяжною для традиційних медіа

Дедалі більше дослідників звертають увагу на нову інформаційну загрозу з боку росії — маніпуляції штучним інтелектом. Зокрема, британський аналітичний центр Institute for Strategic Dialogue (ISD) застерігає: (https://www.isdglobal.org/digital_dispatches/talking-points-when-chatbots-surface-russian-state-media/) кремль розгорнув цілеспрямовану операцію з впливу на великі мовні моделі (LLM) — основу сучасних чат-ботів і генеративних систем штучного інтелекту.
Тактика отримала назву LLM grooming. Її суть — масово наповнювати інтернет фейковими матеріалами, щоб ці дані потрапили до систем машинного навчання. У результаті штучний інтелект починає відтворювати кремлівські меседжі. Центр також розповідав (https://t.me/CenterCounteringDisinformation/13737) про цю стратегію.
Це новий формат інформаційного впливу — маніпуляції відбуваються не лише через соцмережі чи фейкові новини, а й через технологічну інфраструктуру, яку мільйони людей сприймають як надійне джерело інформації.
Також важливо, що на відміну від класичної пропаганди, вплив через ШІ не потребує людського посередництва. ШІ-алгоритми здатні поширювати кремлівські меседжі з масштабом і швидкістю, недосяжною для традиційних медіа. У такий спосіб кожен чат-бот чи пошуковий запит може стати прихованим каналом впливу.
Це створює для демократичного світу принципово нову загрозу — підрив інформаційного суверенітету. кремль розуміє, що у світі, де алгоритми формують думку мільйонів людей, контроль над даними стає новою формою геополітичної влади.
Джерело: https://t.me/CenterCounteringDisinformation/16058



