Про вплив штучного інтелекту на виборчий процес - Atlantic Council

Atlantic Council у публікації авторів Дін Джексон і Меган Конрой «Apocalypse Later. The real impact of AI on the 2024 elections» («Апокаліпсис пізніше? Реальний вплив ШІ на вибори 2024 року») проведено аналіз можливостей використання ШІ для створення непередбачуваних ситуацій під час президентських виборів. Матеріал важливий з тих міркувань, що фейки і діпфейки стають чи не основною зброєю у формуванні певної громадської позиції та спонукають до соціально небезпечних дій.
Пропонуємо витяг з аналітичного матеріалу. Повний текст за цим посиланням.
Експерти визнали, що кампанії впливу з боку державних акторів, зокрема Китаю, Ірану та Росії, залишаються небезпечними у 2024 році.
І Ден Прієто, колишній директор з політики кібербезпеки в Раді національної безпеки під час адміністрації Обами, і Майлз Тейлор, колишній Департамент Трампа Керівник штабу внутрішньої безпеки стурбований загрозами, пов’язаними з кібербезпекою, які можуть включати операції впливу.
Як вони написали:
«Експерти з кібербезпеки також стурбовані тим, що штучний інтелект полегшить зловмисникам втручання в системи голосування. Наприклад, хакерські інструменти з підтримкою штучного інтелекту можуть допомогти зловмисникам досліджувати мережі адміністраторів виборів, сканувати цифрові слабкі місця, соціально інженерувати фішингові атаки та здійснювати вторгнення».
Однак багато потенційних суб’єктів загрози є менш досвідченими та забезпеченими ресурсами, ніж іноземні уряди.
Вони також можуть мати різні мотиви; деякі просто прагнуть створити лихо. І враховуючи хитку громадську довіру до виборчих систем і складність довести, що систему не було зламано, навіть недоведені заяви про хакерську операцію можуть бути руйнівними.
Суб’єкти, які використовують інструменти штучного інтелекту, щоб спробувати скомпрометувати інфраструктуру голосування, швидше за все, будуть більш витонченими, цілеспрямованими та деструктивнішими, ніж різноманітні онлайн-тролі. Хоча ці тролі можуть мати менше ресурсів або бути менш мотивованими, ніж ті, хто намагається зламати машини для голосування, вони все одно можуть мати значний вплив, створюючи шкідливий вміст ШІ, який легко поширюється через нашу дозвільну інформаційну екосистему.
Заходи щодо протидії використанню штучного інтелекту для впливу на демократичні процеси виборів.
Інституції, які фінансують зусилля щодо забезпечення цілісності інформації та об’єднують і збирають професіоналів, відповідальних за ці зусилля, повинні продовжувати будувати стійкі, інформовані комунікаційні мережі з місцевими виборними посадовими особами, медіа-професіоналами, лідерами громад, освітянами та іншими громадськими зацікавленими сторонами.
Ці місцеві інформаційні брокери користуються довірою серед аудиторії, що робить їх ефективнішими в спілкуванні з громадськістю про чутки та теорії змови. Їм потрібно самим знати, як реагувати на ймовірні синтетичні медіа чи дезінформацію, згенеровану ШІ, використовуючи перевірені стратегії перевірки тверджень через надійні джерела, а не намагатися перевірити сам вміст або просто сумніватися в усьому. І вони повинні мати можливість передавати цю інформацію іншим у своїх мережах.
ЗМІ та некомерційні організації повинні продовжувати навчати журналістів і спеціалістів у сфері новин найвідповідальнішим способам підвищення обізнаності про дезінформацію та синтетичні медіа за допомогою штучного інтелекту, не викликаючи тривоги та параної у громадськості. Це може включати приклади формулювань, які слід використовувати під час обговорення неперевіреного вмісту або того, як повідомляти про довірчі інтервали, коли експерти-криміналісти не можуть перевірити чи розвінчати вміст зі 100-відсотковою впевненістю, як це зробив Washington Post повідомляючи про електронні листи, знайдені з ноутбука Хантера Байдена.
Урядовці та журналісти повинні підвищувати обізнаність громадськості про численні етапи, включаючи перевірку логіки та точності, вимоги до двопартійного персоналу, безпечні двері та відділення, які вимагають присутності двох співробітників з різних партій, перш ніж вони відкриються, та перевірки після виборів, які виборчі офіційні особи вживають заходів для забезпечення чесності голосування.
Цей тягар не може лягати лише на адміністраторів виборів, які вже обмежені часом, можливостями та ресурсами.
Зусилля щодо інформування громадськості, а особливо місцевих політиків і громадських лідерів, можуть підвищити стійкість до заяв про фальсифікації виборів.
Одним із методів може бути розміщення реклами за певними ключовими словами YouTube і Google, щоб завчасно передбачати пошуки користувачів, пов’язані з шахрайством, і підвищувати ймовірність того, що конструктивний вміст розміщуватиметься на перших місцях у каналах і результатах пошуку користувачів, таким чином забезпечуючи наявність достовірної інформації для їх задоволення коли вони шукають пов’язані новини. Соціальні медіа, технологічні та медіа-компанії можуть не вважати цю рекламу загальнодоступною послугою.
Урядові чиновники та технологічні компанії повинні вивчити використання інструментів штучного інтелекту, щоб зробити спілкування з громадськістю більш ефективним, наприклад, шляхом створення чат-ботів штучного інтелекту, здатних спрямовувати користувачів до авторитетного контенту про голосування та вибори. LLM також можна використовувати для перевірки бюлетенів та інших процесів, звільняючи виборчих адміністраторів для більшої роботи з громадськістю у своїх громадах. Але, як зазначалося раніше, цей персонал уже перевантажений; спроби перевірити та забезпечити їх новими інструментами мають очолити громадянське суспільство та місцеві, державні та федеральні уряди.
Світлина - Моя освіта



