Штучний інтелект виходить за межі експериментів і дедалі активніше впливає на суспільне життя. Алгоритми вже здатні створювати віртуальні "держави", моделювати суспільство, тестувати закони та навіть прогнозувати вибори, зазначає завідувач Наукової лабораторії імерсивних технологій і права Інституту інформації, безпеки і права Олексій Костенко у статті "Віртуальна держава: як ШІ переписує суспільство й чи залишиться у людини право на вето?" для ZN.UA.
"Ми вступаємо у фазу, коли межа між віртуальним і реальним стає умовною. Постає питання: чи ми керуємо технологіями, чи вони — нами?", — вказує автор.
За його словами, особливу роль у цьому відіграють симулякри — високореалістичні цифрові моделі людей, які відтворюють не лише зовнішність чи голос, а й поведінкові особливості, реакції та навіть психологію.
Автор статті називає їх своєрідними "цифровими двійниками" , які взаємодіють не лише у віртуальному світі, а й спілкуються зі світом реальним. Він додає, що симулякри дозволяють експериментувати із соціальними, економічними та правовими процесами.
"Уявімо собі державу, яка, перш ніж ухвалити важливе рішення, проганяє його через цифрову модель суспільства й отримує кілька сценаріїв розвитку подій. Такий підхід зробив би політику та право набагато більш доказовими, а управління — науково обґрунтованим", — пояснює Костенко.
Він звертає також увагу на те, що в симулякрах закладені й серйозні ризики. Костенко вказує, що колосальні обсяги персональних даних необхідні для створення реалістичних моделей — від медичних показників до емоційних реакцій у соцмережах. Унаслідок цього відкривається простір для зловживань, тотального контролю та маніпуляцій.
"Є небезпека, що симулякр стане не інструментом прогнозування, а засобом формування потрібної громадської думки. Замість лабораторії майбутнього він може перетворитися на фабрику ілюзій", — попереджає експерт.
Костенко наголошує, що для уникнення такого сценарію, необхідні інституційні "гальма та кермо". Мова йде про обов’язковий контроль усіх видів штучного інтелекту та створення прозорої електронної юрисдикції.
Експерт пояснює, що необхідно маркувати цифрову синтетику. Він додає, що своєрідний "ярлик" має показувати, що перед вами штучно створений контент, а не реальність.
"Потрібні також незалежні аудити роботи моделей штучного інтелекту (щоб вони не перетворилися на чорну скриньку, що керує поведінкою людей) та дієві механізми оскарження й відшкодування. І головне — людина має бути вирішальним запобіжником і центром легітимації", — вказує Костенко.