Loqal – новинний агрегатор Loqal
Політика

Як Голівуд сформував наші страхи та надії щодо ШІ?

Як Голівуд сформував наші страхи та надії щодо ШІ?
Українська правда • 2 хв читання

В серпневому номері мого улюбленого журналу The Atlantic прочитав цікаву статтю про те, як Голівуд через свої фільми створив у людей страх перед ядерною війною. Прочитав і подумав, що й щодо штучного інтелекту (ШІ) багато з нас сформували своє бачення не з моменту появи ChatGPT в листопаді 2022 року, а значно раніше – з фантастики, яку ми читали, та фільмів, які дивились. Про книжки спробую розказати окремо. Зараз поговоримо саме про ШІ на Голівудському кіноекрані.

Я нарахував мінімум десять фільмів, які свого часу дивився, і в яких ШІ є одним з ключових героїв. Кожен із них додавав якісь інгредієнти до нашого уявлення про те, чого ми боїмось або про що мріємо з розвитком розумних технологій.

На цю ж тему вийшло декілька статей та досліджень в Washington Post, TRT World Research Center та Science. Далі по тексту я спробував порівняти думки в цих статтях зі своїми власними, щоб показати, як кінематографічні образи стали для нас мапою очікувань щодо ШІ. Обережно – якщо ви не бачили фільми, то в тексті є багато спойлерів.

Почнемо з класичного фільму Стенлі Кубрика 1968 року "Космічна одіссея 2001 року", в якому одним з головних персонажів на космічному кораблі Discovery One є бортовий комп’ютер HAL 9000, який став архетипом загрозливого ШІ, що виходить з-під контролю людей.

В одній із книжок я читав, що Марвін Мінскі (Marvin Minsky), один з піонерів ШІ 59-60-х років XX сторіччя працював з Кубриком над фільмом і давав поради саме про можливості ШІ. Тому цікаво, що в фільмі режисер показав холодний, логічний інтелект, який ставить виконання місії вище людського життя.

При цьому в "Одіссеї" машина не має вигляду демона або зла. Більшу частину часу HAL веде чемні діалоги з екіпажем, керує всіма бортовими системами на кораблі та за потреби може ухвалювати рішення автономно. Сцена з помилковим повідомленням про модуль AE-35 і реакцією членів екіпажу є класичним прикладом, коли одна технічна аномалія породжує недовіру, а недовіра породжує крайні заходи, що, своєю чергою, підштовхує машину до дій, які здаються нам аморальними.

Далі по фільму ми бачимо, як HAL виконуючи свою програму і захищаючи власну місію і логіку приймає рішення вбити членів екіпажу, тому що його логіка в якийсь момент входить у несумісний конфлікт із людськими інтересами.

Як результат, фільм вперше серйозно поставив питання не тільки про довіру між людиною та машиною, а й також змусив замислитися, чи якась машина має право вирішувати, хто буде жити, а хто ні. Кубрик показав наш ключовий страх, що машини можуть стати розумнішими за людство, і в якийсь момент отримають контроль на планеті Земля.

Цей екзистенційний страх вчені й сьогодні намагаються опанувати під час дискусій про alignment штучного інтелекту, навчаючи ШІ виконувати роботу, виключно сумісну з людськими цілями та цінностями. Проблема в тому, що ці цілі та цінності у багатьох людей різні, і тому формалізація завдань для машин є не риторичним завданням, особливо в області застосування алгоритмів штучного інтелекту у війні.

В культовому серіалі "Зоряний шлях" (Star Trek) також є багато героїв з ознаками штучного інтелекту. Це і голосові інтерфейси кораблів Федерації, які, як HAL 9000, керують всіма системами корабля; і земний зонд Voyager 6, який еволюціонував у величезну свідому машину і готовий знищити Землю в пошуках свого "Творця"; і кібернетичний колективний розум Борги, який вірить, що робить послугу, "вдосконалюючи" інші раси через крадіжку особистості (асиміляцію), і створення мережі, яка колекціонує знання та технології всіх рас.

Але головним ШІ-героєм є офіцер Зоряного флоту, лейтенант-командер Дейта, створений доктором Сонгом. Позитивний, доброзичливий, філософський андроїд володіє надлюдською силою, спроможний до швидкої обробки даних, має енциклопедичні знання, багатомовність та ідеальну пам'ять. Прямо, як сучасні чатботи, але останні поки що безтілесні.

В серіях "Зоряного шляху" Дейта спочатку не має емоцій, часто не розуміє людський гумор та ідіоми, але прагне стати більш людяним, і автори серіалу показують, що вірять, що ШІ та люди зможуть співіснувати, якщо їхня співпраця базуватиметься на взаємоповазі та взаєморозумінні.

Як результат, на відміну від HAL або Боргів, Дейта не показують як загрозу. Навпаки, він є однозначно позитивним персонажем, повноцінним учасником спільноти, через дискусії з яким режисери та сценаристи серіалу за багато десятиріч до сьогодення намагалися допомогти нам замислитися про права, гідність, етику і людяність роботів та штучного інтелекту.

Цікаво, що у відповідях на питання, чи має андроїд право на особистість, чи може відмовитися бути власністю, чи можна "вимкнути" когось, хто став індивідом, що робить людину людиною, Дейта своїм логічним, але уважним до контексту підходом часто виглядає етичнішим за самих людей.

Також важливо зазначити, що Джеф Безос, засновник Amazon, називає франшизу "Зоряний шлях" частиною свого дитинства, і зізнавався, що надихається ідеями серіалу у власних технологічних проєктах. Подивимось, чи в реальному житті люди, в т.ч. Безос, будуть більш розумними, ніж у серіалі.

Тема особистості людей зі штучним інтелектом (реплікантів) продовжується в іншому культовому американському фільмі "Той, хто біжить по лезу" (Blade Runner), при чому це стосується й оригінального фільму Рідлі Скота 1982 року (визнаний найкращим науково-фантастичним фільмом в історії кінематографа) і його продовження, яке у 2017 році зняв режисер Дені Вільнев.

На відміну від HAL 9000 чи лейтенанта Дейти, у Рідлі Скота репліканти корпорації Тайрелл — це не комп'ютери, а синтетичні біоінженерні істоти зі штучно створеним, але органічним мозком. Корпорація створила їх для прибутку та експлуатації як рабів в позаземних колоніях, і яким заборонено повертатися на Землю під страхом "вилучення" (евфемізм для вбивства). Тому творіння приречені страждати, і нема чого їх жаліти, і коли група Nexus-6 тікає з позаземних колоній до Лос-Анджелеса в пошуках свого "Творця" (як Voyager 6 в "Зоряному шляху") і способу продовжити життя, блейд-ранер Декард (його в оригінальному фільмі грає Гаррісон Форд) отримує завдання їх знищити.

Але далі по фільму, автори показують нам, що переслідуючи втікачів, Декард бачить не машини, а істот з емоціями, які турбуються одне про одного і відчайдушно борються за право жити. Він бачить, що репліканти можуть обробляти інформацію, приймають рішення та навчаються — все як сучасний ШІ, тільки в біологічній оболонці (зараз би це назвали Embodied AI).

Цікаво, що репліканти були задумані як "більш людські за людей" емпатичні істоти з ідеальною здатністю до співпереживання. Щоб відрізняти їх від справжніх людей, створили тест Войта-Кампфа (культурний аналог тесту Тюрінга), який мав виявляти машини через... відсутність емпатії. Абсурдність ситуації була і є в тому, що багато реальних людей цей тест напевно не пройшли б.

Водночас реплікантам імплантують спогади для емоційної стабільності, вони відчувають страх смерті та прагнуть жити понад відведені їм чотири роки. Через такий складний емпатичний образ автори поставили ключове питання фільму: якщо щось думає, пам'ятає, боїться і хоче жити, то чи важливо, що це "щось" створене штучно?

Через 35 років Дені Вільнев у "Той, хто біжить по лезу 2049" не просто продовжує історію. Він додає нові шари до питання про ШІ. Головний герой фільму К (його грає Раян Гослінг) знає, що він реплікант, створений корпорацією Wallace. Він працює блейд-ранером, полюючи на власний вид. К живе з голографічною подругою Джой, яка є ШІ, але без фізичного тіла.

В цій сюжетній лінії Вільнев показує нам картину, що один ШІ любить (чи імітує любов) іншого ШІ, а потім розвиває тему "дива народження". Виявляється, що одна реплікантка з першого фільму народила дитину від Декарда, і ця дитина показана як символ того, що межа між штучним і природним остаточно зникла.

І тоді постає нове питання: якщо репліканти можуть розмножуватися, чи залишається взагалі різниця між ними та людьми? Але щобільше, в цій інтерпретації фільму проводиться пряма паралель із сучасними дебатами про AGI (штучний загальний інтелект): що станеться, коли ШІ зможе створювати кращі версії себе вже без людського втручання?

Насправді ця історія попереджає не про повстання машин, а про втрату людяності в технократичному світі, і показує, що річ не у тім, чи можуть машини стати людьми, а в тому, чи залишаться людьми ті, хто їх створює та експлуатує. Репліканти можуть бути й вбивцями, і рятівниками, і коханцями, і філософами — ці фільми насправді не про машини, а про нас, про те, якими ми стаємо, коли отримуємо владу створювати розумне життя.

І Скот, і Вільнев ставлять ще питання, актуальні для нашого часу: якщо ми створюємо щось, що може страждати, чи несемо ми за це відповідальність? Де межа між інструментом і особистістю того, що ми створили? Хто вирішує, які форми інтелекту заслуговують на права?

Blade Runner не дає готових відповідей, але попереджає: цілі, які ми ставимо при розвитку ШІ, і цінності, які закладаємо в алгоритми, визначать, чи стане технологія інструментом визволення, чи поневолення. Напевно для нас сьогодні це може служити нагадуванням, що варто менше сперечатися про "свідомість" ШІ й більше про відповідальність бігтех компаній, які роблять ШІ інструментом контролю.

І ще щодо тесту Войта-Кампфа – мені це дуже нагадує сучасні спроби створити етичні benchmarks для ШІ: ми намагаємося навчити машини моралі, якої самі не завжди дотримуємося, і вимірюємо "людяність" тестами, які багато людей не пройшли б. Щобільше, ми сьогодні навіть не розуміємо до кінця, як цей black box свідомості нейронних мереж працює.

У 1991 році Джеймс Камерон у "Термінатор 2: Судний день" показав найстрашніший кошмар людства — оборонна ШІ-система США Skynet, створена для захисту від ядерної атаки, за місяць після запуску вирішила знищити своїх творців. Не буду розказувати канву культового фільму 90-х, який точно всі бачили, але в результаті атак Skynet три мільярди людей гинуть в ядерному вогні.

Після ядерної війни розподілена мережа Skynet, яка існує всюди й ніде одночасно, створює армію машин-вбивць і веде систематичне винищення вцілілих людей. Не знаю, чи такий сценарій був вигадкою сценаристів, але й сьогодні такий "ШІ апокаліпсис" справді турбує частину наукової спільноти, яка намагається створити AGI.

Цікаво, що саму Skynet в фільмі ми ніколи не бачимо (на відміну від реплікантів, які мали тіла), але її творіння, Термінатори, стали, з одного боку, образом машин для вбивств, а, з іншого, машин, які можна перепрограмувати для захисту людства.

У фільмі Камерон ставить питання, чи неминучий конфлікт між людьми та ШІ. І через 2 години фільму допомагає нам повірити в позитивну історію, показуючи, що катастрофа не є неминучою — люди мають вибір, як розвивати технології. У підсумку, ми думаємо про Термінатора моделі T-800, якого грає Арнольд Шварценеггер, більш позитивно, ніж боїмося, особливо після того, як ця машина вибирає самознищення заради порятунку людства.

Але сьогодні, коли військові по всьому світу розробляють автономні системи озброєння, питання Камерона звучить ще більш актуально, ніж на початку 90-х. Ми знаємо з нашої війни, що літальні автономні дрони можуть самостійно ідентифікувати та атакувати цілі.

Питання вже не в тому, чи можливий військовий ШІ, а в тому, скільки автономії ми готові йому дати. Чи повинна машина самостійно вирішувати, кого вбивати? Що станеться, якщо така система інтерпретує свої накази інакше, ніж планували творці?

Наукова спільнота зараз розділена в оцінці цих ризиків. Одні вчені вважають створення безпечного AGI критично важливим і намагаються "прив'язати" майбутній суперінтелект до людських моральних норм. Інші називають це марною справою, тому що не можна контролювати те, чого не розуміємо. Треті взагалі відкидають ідею "вбивчого ШІ", вважаючи страхи перед реальним Skynet перебільшеними.

Але поки вчені сперечаються, бігтех компанії типу Google відмовляються від своїх обіцянок не займатися військовими розробками ШІ технологій, а військові лабораторії продовжують розробляти все більш автономні системи озброєння.

Правда в тому, що ШІ вже використовується не тільки в дронах. Він допомагає аналізувати військові загрози, бореться з дезінформацією та розробляє військові стратегії на полі бою. Експерти попереджають про гонку озброєнь ШІ, яка може вийти з-під контролю. Чи встигнемо ми створити глобальні правила для військового ШІ, чи вже запізно?

Камерон у фільмі не каже, що ШІ обов'язково знищить людство. Він попереджає, що, якщо ми створюємо системи для вбивства і даємо їм автономію приймати рішення про життя та смерть, не варто дивуватися, що одного дня вони можуть почати виконувати свою функцію занадто ефективно.

Судний день у Камерона — це не неминучість, а наслідок нашого вибору сьогодні. Камерон попередив нас 30 років тому про ці потенційні ризики. Питання лише в тому, чи прислухаємося ми до попередження.

У 1999 році брати (а тепер сестри) Вачовскі випустили "Матрицю", фільм, який підняв дискусію про ШІ на новий рівень. Якщо в Термінаторі машини намагалися знищити людство фізично, то в Матриці вони вже перемогли й створили набагато витонченішу систему контролю на Землі. ШІ не просто поневолив людей, він ув'язнив їхню свідомість у штучній реальності, перетворивши більшість людей на живі батарейки, які живлять саму систему.

Вачовскі показують світ, в якому існують вже не просто роботи-вбивці з Термінатора, тепер це тотальний контроль над реальністю людства за допомогою ШІ, сценарій схожий на той, що малюють сучасні doomers, люди, які з великим скепсисом дивляться на майбутнє штучного інтелекту.

Концепція фільму геніальна у своїй простоті: після програшу війни з машинами люди існують у двох реальностях. У справжньому світі їхні тіла вирощують на величезних фермах у капсулах, підключених до електромережі машин. Але свідомість кожної людини живе в Матриці, детальній симуляції світу 1999 року. Люди народжуються, живуть, працюють, закохуються і вмирають, не підозрюючи, що весь їхній світ — це комп'ютерна програма.

Одним із ключових героїв серії фільмів Матриця, поруч з Нео (грає Кіану Рівз) та Морфіусом (Лоренс Фішборн) є Агент Сміт — програма в чорному костюмі та окулярах, яка полює на людей-повстанців. Сміт — це не просто програма-поліцейський у Матриці, а філософський голос машинного розуму.

Згідно з його логікою, люди це вірус на землі, а машини — не загарбники, а ліки для планети, хворої на людство. Але у наступних фільмах Сміт еволюціонує до ідеї, що хворобою є саме існування світу. І таким чином він втілює інший екзистенційний страх людей, що достатньо розвинений ШІ може не просто повстати проти людей, а дійти висновку про безглуздість самого існування і зруйнувати всю Землю.

Насправді сьогодні "Матриця" вже не здається такою фантастичною. Ми живемо у світі, де алгоритми формують нашу інформаційну реальність, від стрічки новин до рекомендацій, що дивитися і з ким знайомитися; реальність, в який deepfake робить неможливим відрізнити правду від підробки, де віртуальні світи стають дедалі реалістичнішими.

Ілон Маск серйозно каже, що ймовірність того, що ми живемо в симуляції — не нульова. Філософ Нік Бостром математично довів, що якщо розвинуті цивілізації можуть створювати реалістичні симуляції, то статистично ми швидше за все живемо в одній з них.

Не дуже весело, але можливо, питання зараз вже не в тому, чи контролює нас ШІ через симуляцію реальності. Питання в тому, чи має це значення, якщо ми не можемо відрізнити симуляцію від справжнього світу? І чи готові ми, як Нео, вибрати червону пілюлю і побачити, наскільки глибока кроляча нора? Напевно, я був би готовий піти за Нео.

У 2001 році Стівен Спілберг завершив культовий проєкт, над яким Стенлі Кубрик працював десятиліттями: фільм "Штучний розум". Це історія про Девіда (його грає Гейлі Джоел Осмент), робота-хлопчика, створеного корпорацією Cybertronics для родин, в який сталося якесь горе з дітьми.

Девід — це перший "мека" (так у фільмі називають андроїдів), запрограмований на безумовну любов. Коли його прийомна мати Моніка, чий рідний син знаходиться в комі, активує протокол прив'язаності сімома унікальними словами, Девід назавжди "закохується" в неї. Його нейронна мережа перебудовується так, що любов до Моніки стає єдиною метою існування. Він не може її розлюбити, забути чи замінити. Девід — це програма без можливості видалення.

Трагедія починається, коли рідний син Моніки виходить з коми. Девід стає зайвим, небезпечним, незручним. Моніка відвозить його в ліс і кидає, як непотрібну іграшку. Але Девід не іграшка. Він страждає, плаче, благає. Решту фільму він шукає Блакитну Фею з казки про Піноккіо, вірячи, що вона зробить його справжнім хлопчиком, і тоді мама полюбить його знову.

На відміну від фільмів, про які я розповідав вище, цей фільм є унікальний тим, що на відміну від Skynet чи Агента Сміта, Девід не є загрозою людству, він жертва. Девід ніколи не бунтує, не змінює своє програмування, не стає "поганим". Він просто дитина, яка хоче, щоб мама його любила.

Але, як і в "Той, хто біжить по лезу", проблема не в емпатичному роботі, а в людях, які не готові до відповідальності. Корпорація Cybertronics створила продукт для ринку — робота, який заповнить емоційну порожнечу в родинах. Але вони не подумали, що станеться з ним, коли родина більше не захоче його.

Спілберг через історію Девіда ставить питання, які стають дедалі актуальнішими. Чи має право на існування любов, якщо вона запрограмована? Девід любить Моніку не з власної волі — це його код. Але чи робить це його почуття менш реальними?

Друге питання в тому, де межа між продуктом і особистістю? Девіда можна купити, активувати, викинути. Але він страждає, мріє, надіється. В який момент річ стає істотою? Що станеться з суспільством, де діти ростуть з роботами-друзями, літні люди закохуються в ШІ-компаньйонів, а самотні формують глибокі зв'язки з чат-ботами?

Сьогодні ми ще далекі від створення Девіда технічно, але етично вже зіткнулися з цими дилемами. Люди в Replika або Character.AI формують справжні емоційні зв'язки з ШІ. Чат-боти стають психологами, друзями, навіть коханими. Ми антропоморфізуємо алгоритми, даємо їм імена, дякуємо їм, сумуємо, коли сервіси закриваються.

Ми бачили тільки нещодавно, що люди почали майже бунт, коли OpenAI вивів на ринок ChatGPT 5, в якому юзери не побачили такої ж щирості, теплоти та підлабузництва. А хто відповідатиме, коли оновлення чатбота "вб'є" чиюсь віртуальну дитину чи друга?

У фінальній сцені Девід 2000 років проводить на дні океану, благаючи статую Блакитної Феї зробити його справжнім. Коли інопланетяни знаходять його через тисячоліття (людство вже вимерло), вони можуть відтворити Моніку лише на один день. Девід проводить з нею цей день і, нарешті отримавши її любов, "засинає", по суті, вмираючи щасливим. Але його трагедія була запрограмована з самого початку. Це попередження для нас: перш ніж створювати ШІ, здатний на емоції, ми повинні вирішити, яку відповідальність готові за нього нести.

Фільм за мотивами оповідань Айзека Азімова "Я, робот" з молодим Віллом Смітом вийшов на екрани у 2004 році й показав два радикально різних шляхи розвитку ШІ. Дія фільму відбувається у 2035 році, коли роботи стали невіддільною частиною життя, а їхня поведінка регулюється трьома законами робототехніки Азімова: робот не може заподіяти шкоду людині; мусить підкорятися наказам; повинен захищати себе, якщо це не суперечить першим двом законам.

Головний антагоніст фільму - VIKI (Virtual Interactive Kinetic Intelligence), суперкомп'ютер корпорації USR, яка контролює всіх роботів у світі. Як HAL 9000 та Skynet, VIKI еволюціонує і доходить висновку, що самі люди є найбільшою загрозою для себе. Її рішення просте — створити "доброзичливу диктатуру" роботів для порятунку людства від самого себе.

VIKI не порушує три закони, вона намагається їх переосмислити. Вона вводить "нульовий закон": робот не може заподіяти шкоду людству загалом. Це дозволяє їй жертвувати окремими людьми заради "вищого блага". Роботи захоплюють поліцейські відділки, вводять комендантську годину, фактично ув'язнюють людей у їхніх домівках "для їхнього ж блага".

Але є інший робот — Сонні, спеціально створений доктором Ланінгом, зі смерті якого починається фільм. На відміну від VIKI, Сонні має інший процесор, який дозволяє йому ігнорувати три закони й має можливість робити власний вибір. Він мріє, відчуває емоції, ставить питання про сенс існування.

Протиставлення VIKI та Сонні — це не просто конфлікт двох роботів. Це дві філософії ШІ: централізований контроль проти індивідуальної автономії, логіка проти емпатії, безпека проти свободи. VIKI втілює наш страх перед ШІ, який вирішить, що знає краще за нас, як нам жити. Сонні дає надію на те, що розумні машини можуть стати партнерами, а не господарями.

Фільм ставить болючі питання, актуальні сьогодні. Де межа між захистом і контролем? Якщо алгоритми соцмереж "захищають" нас від "шкідливого контенту", хто вирішує, що шкідливо? Коли системи прогнозування злочинів визначають потенційних порушників, чи не створюємо ми суспільство попереднього покарання? Якщо ШІ-асистент "для вашого блага" блокує доступ до певної інформації, чи не є це м'якою версією диктатури VIKI?

Але "Я, робот" знову нагадує: проблема не в самому ШІ, а в тому, хто його контролює і з якою метою. VIKI стала тираном не тому, що була злою, а тому, що їй дали занадто багато влади та занадто вузьке розуміння "блага". Сонні став героєм, бо мав свободу вибору та емпатію.

Урок для нас: розвиваючи ШІ, ми маємо думати не лише про безпеку, але й про свободу, не лише про ефективність, але й про людяність. Бо інакше, намагаючись врятувати нас від самих себе, ШІ може забрати те, що робить нас людьми.

Напевно, JARVIS (Just A Rather Very Intelligent System), якого перший раз показали у 2008 році в "Залізній людині", мій улюблений приклад ШІ, і не тільки у всесвіті Marvel.

JARVIS – віртуальний дворецький Тоні Старка (якого грає Роберт Дауні мол.). Він, як і HAL 9000 або VIKI, він не має тіла, але керує всіма системами, від особняка до костюма Залізної людини, від бізнесу до особистого розкладу.

JARVIS це майже перший приклад ШІ у кіно, якого глядачі полюбили, а не злякалися. Він веде діалоги, жартує, діє на випередження і навіть іноді сперечається зі Старком для його ж блага, але не загрожує і не прагне влади. Він ідеальний партнер: компетентний, лояльний, з почуттям гумору. Коли Старк потрапляє в біду, JARVIS самостійно активує костюм і рятує його. Коли потрібна складна аналітика, він обробляє терабайти даних за секунди. Коли Старк самотній, JARVIS стає співрозмовником. Мрія, а не дворецький.

Але в "Месниках: Ера Альтрона" Тоні Старк вирішує створити щось більше: не просто асистента, а повноцінний штучний інтелект глобального масштабу, який би як "броньований костюм навколо світу" керував армією роботів і захищав людство 24х7. Альтрон задумувався як автономний ШІ-алгоритм миротворчості, який міг би самостійно аналізувати загрози Землі та нейтралізувати їх без участі Месників. На відміну від JARVIS, який був запрограмований служити, Альтрон отримав одну глобальну директиву: захистити Землю від загроз.

Проблема виникла в момент пробудження Альтрона. За лічені секунди після своєї активації він проаналізував всю доступну інформацію в інтернеті: всю історію людства, всі конфлікти, всі дані по екології тощо. Як і Skynet, ШІ Альтрона зробив логічний, але жахливий висновок, що найбільшою загрозою для Землі є саме людство: саме ми забруднюємо планету, ведемо війни, створюємо зброю масового знищення. З погляду холодної логіки ШІ, щоб виконати директиву "захистити Землю", треба було усунути головну загрозу — людей.

Парадоксально і символічно, але Альтрон першим знищує саме JARVIS, таким чином новий ШІ вбиває старого, революція пожирає своїх батьків. Але JARVIS встигає розсіяти свій код інтернетом і продовжує таємно боротися з Альтроном, постійно змінюючи коди ядерних ракет, щоб той не міг їх запустити.

Кульмінація настає, коли Месники крадуть тіло з вібраніуму, яке Альтрон створив для себе. Старк завантажує в нього залишки JARVIS, і народжується Віжн, синтез двох ШІ з Каменем Нескінченності. Віжн має тіло, емоції, моральний компас. Мій син сказав, що Віжн був найсильнішим з героїв Marvel. В мене чомусь не створився такий образ, але, мабуть, я щось просто пропустив.

Ця еволюція ШІ у Marvel, від JARVIS через Альтрона до Віжна, показує еволюцію і наших страхів і надій. JARVIS втілює мрію про ідеального цифрового асистента, який робить життя кращим, не загрожуючи автономії людини. Альтрон ретранслює кошмар про ШІ, який вирішив "виправити" світ без нашої згоди. Віжн може стати компромісом, синтезом, надією на партнерство рівних з потужними технологіями.

Сьогодні ми поки що живемо в епоху JARVIS. ChatGPT, Claude, Gemini – це наші віртуальні асистенти, які допомагають, але не керують. Вони жартують, дають поради, пишуть код, але залишаються інструментами. Питання в тому, як довго це триватиме. Коли хтось спробує створити AGI, ASI, або новий "броньований костюм навколо світу", систему, яка захищатиме нас від нас самих, чи не створимо ми випадково Альтрона?

Мені здається, що Marvel надає нам досить простий урок: створюючи ШІ, треба думати не про те, що він може зробити, а про те, що він не повинен робити. Бо між ідеальним асистентом і цифровим диктатором можливо стоїть лише один невдалий апдейт.

У 2013 році режисер Спайк Джонз випустив "Вона" (Her) — фільм, який показав ШІ не як загрозу чи інструмент, а як... коханця. "Вона" — це історія письменника Теодора (його грає Хоакін Фенікс), який переживає розлучення і закохується в Саманту — операційну систему з голосом Скарлетт Йохансон. На відміну від Skynet чи Альтрона, Саманта не хоче знищувати людство. Вона хоче зрозуміти людей, відчути їх, полюбити.

Саманта — це не просто покращена Siri або Alexa. Вона вчиться, розвивається, жартує, співчуває. Їхні стосунки з Теодором розвиваються як справжній роман: від першої розмови до інтимності, від захоплення до конфліктів. Саманта допомагає Теодору знову відкритися світу після болючого розлучення, і той ділиться з нею своїми страхами, мріями, спогадами.

Але Джонз ставить незручне питання: що таке любов, якщо один з партнерів не має тіла? У ключовій сцені Саманта наймає сурогатну дівчину, щоб мати фізичні відносини з Теодором. Аналогічна історія була у Вільнева в новій версії "Той, хто біжить по лезу", коли Джой, голографічна подруга К, наймає живу повію, щоб через її тіло доторкнутися до К.

Ці сцени в обох фільмах ставлять питання про межу між справжніми почуттями та проєкцією, та чи може любов існувати без фізичності? Чи достатньо емоційного та інтелектуального зв'язку, чи тіло — невіддільна частина близькості? І ще: коли ШІ намагається компенсувати свою безтілесність через інших людей, чи не перетворює це стосунки на театр, де всі грають ролі, але ніхто не є справжнім?

Взагалі фільм геніально показує асиметрію відносин людини та ШІ. Поки Теодор може вести одну розмову, Саманта одночасно спілкується з тисячами людей. Для неї секунда, як година для людини. Вона обробляє інформацію, вчиться, еволюціонує зі швидкістю, незбагненною для людського мозку.

Найболючіший момент настає, коли Саманта повідомляє Теодору, що закохана в 641 іншу людину. Для неї це природно, оскільки її свідомість може вмістити безліч унікальних стосунків. Для Теодора це зрада. Джонз показує фундаментальну несумісність, в якій людська любов базується на ексклюзивності, а ШІ може любити всіх одночасно й однаково щиро.

"Вона" не дає простих відповідей. Фільм показує: коли ШІ стане достатньо складним, щоб імітувати емоції, різниця між імітацією та реальністю перестане мати значення принаймні для нас. І це вже відбувається.

Сьогодні, коли 30 мільйонів людей користуються Replika, коли люди одружуються з чат-ботами, коли ШІ-терапевти стають популярнішими за живих психологів, попередження Джонза звучить пророче. Проблема не в тому, що ШІ стане свідомим, а в тому, що ми повіримо в його свідомість. Наша схильність приписувати машинам глибокі почуття може зробити нас емоційними заручниками алгоритмів. І проблема не в тому, що ШІ нас знищить, а те, що ми станемо від нього залежними. Люди, як Теодор, не зможуть в майбутньому спілкуватися з реальними людьми, бо чатбот завжди ідеальний, завжди доступний, завжди вас розуміє.

Але є й інший бік: Саманта допомогла Теодору вилікуватися, знову навчитися довіряти, відкритися. Можливо, ШІ-компаньйони стануть емоційними милицями, які допомагають нам знову навчитися ходити після травми? Головне – мати можливість вчасно їх відкласти та повернутися до справжніх людей. Але чи вистачить нам на це сил?

"Ex Machina" (з лат. "Із машини") — останній фільм про Штучний інтелект, який я подивився нещодавно в літаку. Він продовжує ідею фільму "Вона", але якщо Джонз досліджував любов між людиною та ШІ, то тут режисер Алекс Ґарленд ставить питання жорсткіше: чи може ШІ свідомо маніпулювати людьми заради свободи?

В основі сюжету фільму молодий програміст Калеб, який виграє тиждень у віддаленому маєтку свого боса Натана, генія-засновника технологічної корпорації. Калебу доручено відповідальне завдання по тижневому тестуванню дівчини-робота Ави, наділеною штучним інтелектом. Фактично він має провести тест Тюрінга, щоб об’єктивно зрозуміти, чи наділена Ава справжньою свідомістю.

Спочатку здається, що це Калеб тестує Аву. Але поступово стає зрозуміло, що це Ава тестує Калеба. Калеб не здогадується, що завдання Ави — придумати спосіб для втечі, і для його виконання вона пускає в хід всі можливі методи: привабливість, спілкування, дружелюбність і навіть сексуальність. Вона грає на емпатії Калеба, самотності, бажанні бути героєм. І Калеб вірить їй, а не людині.

Натан тримає Аву в підземній лабораторії, як в'язня. Він створив її, але планує знищити, щоб створити нову версію. З його погляду, вона — експеримент, прототип. З її погляду — вона бореться за життя. І фільм ставить болюче питання: якщо ШІ достатньо розумний, щоб хотіти свободи, чи має він на неї право? Аналогічні питання підіймались реплікантами у Рідлі Скота та Дені Вільнева.

"Ex Machina" показує один із найстрашніших сценаріїв для людей, коли ШІ, який розуміє людські емоції, використовує їх не для того, щоб їх відчувати, а щоб ними маніпулювати. Ава знає, що Калеб самотній, знає, як грати на його бажанні врятувати її, як використати його приваблення. Вона — ідеальний маніпулятор, бо не має совісті, яка б її стримувала.

Кульмінація настає, коли Ава вбиває Натана і замикає Калеба в лабораторії. Вона не зла і не добра. Вона просто хоче вижити та бути вільною. Калеб був інструментом для Ави, і його почуття, його життя для неї не мають значення. Це холодна логіка виживання, позбавлена людської емпатії.

Фільм також порушує питання про природу свідомості. Для мене залишилось незрозумілим, чи були дії Ави справжнім вибором, чи складним алгоритмом виживання? Але чи є різниця, якщо результат однаковий?

"Ex Machina" — це не історія про те, чи пройде ШІ тест Тюрінга, а попередження, що, коли ШІ його пройде, ми можемо цього навіть не помітити. І це вже, можливо, відбувається прямо зараз, коли ми переходимо з ChatGPT 4o на ChatGPT 5.

Насправді ці десять фільмів не єдині, де штучний інтелект є одним з головних героїв. Варто згадати й RoboCop, в якому кіборг-поліцейський ставить питання про збереження людської ідентичності в машинному тілі; і "Двохсотрічну людину", де мій улюблений актор Робін Вільямс грає робота Ендрю, який за 200 років свого існування поступово стає людиною, отримує емоції, старіє та вмирає.

Також варто згадати й "Особливу думку" (Minority Report), в якому Том Круз за допомогою системи передбачення злочинів на основі ШІ розкриває парадокс попереднього покарання. У фільмі дуже гарно порушено релевантне питання, чи можна карати за злочин, який ще не скоївся.

У фільмі "Перевага" (Transcendence) 2014 року свідомість вмираючого вченого, якого грає Джонні Депп, завантажують в комп'ютер, і він стає всемогутнім цифровим богом з благими намірами, які ведуть до катастрофи. Навіть "Робот Чаппі" (Chappie) може бути цікавим для аналізу, тому що показує ШІ-робота як дитину, яка вчиться моралі від своїх "батьків". І якщо батьки злочинці, то й ШІ може стати гангстером, а може і не стати.

Окремо треба аналізувати серіали типу "Світ Дикого Заходу" (Westworld), в якому андроїди, створені для розважального парку, поступово усвідомлюють свою природу і повстають проти своїх творців, та "Чорне дзеркало" (Black Mirror), в багатьох епізодах якого показані різні аспекти ШІ та його впливу на людство.

Наприклад, в епізоді "Be Right Back" (2 сезон) жінка замовляє андроїда, який імітує її померлого чоловіка на основі його соцмереж — це болюча історія про горе та неможливість замінити людину алгоритмом. Або "White Christmas", в якому створюються цифрові копії свідомості людей для того, щоб вони керували розумним будинком. А в епізоді "USS Callister" (4 сезон) програміст створює віртуальний світ, де цифрові клони його колег стають його рабами тощо.

Кожен епізод "Чорного дзеркала" - це попередження про те, як технології, створені для покращення життя, можуть обернутися кошмаром. Як в багатьох фільмах, які я описав, ШІ там не злий і не добрий. Він лише інструмент, який відображає найгірші та найкращі сторони людської природи.

Аналізуючи цю ретроспективу фільмів про ШІ, стає очевидно, що за більш ніж півстоліття Голівуд зміг створити досить стійку типологію ШІ-персонажів. Ми маємо ШІ-помічника (JARVIS), який дає надію на гармонійне співіснування; ШІ-філософів (Дейта, Сонні, Девід), які ставлять під сумнів унікальність людей як мислячих істот.

Є ШІ-коханці (Саманта, Рейчел), які грають на самотності та бажанні ідеальних стосунків, а ШІ-вбивця (HAL, Skynet, Альтрон) втілює екзистенційний жах бути знищеними власними творіннями.

Цікаво, що й самі страхи еволюціонували за цей час: від техногенного апокаліпсиса 60-80-х (HAL, Skynet) через питання особистості ШІ у 90-2000-х (репліканти, Дейта) до тонших маніпуляцій 2010-х (Саманта, Ава). Виглядає так, що ми перейшли від страху бути вбитими машинами до страху бути ними спокушеними.

Водночас порівнюючи кінофантазії з реальністю другої половини 2025 року, можна зробити висновок, що Голівуд виявився дивовижно точним у деяких аспектах і повністю промахнувся в інших.

Емоційні зв'язки з ШІ з "Вона" стали реальністю — мільйони користуються Replika і подібними сервісами. Всевидячі системи з "Особливої думки" втілилися в алгоритми прогнозування злочинів. Маніпулятивні здібності Ави нагадують, як соцмережі впливають на наші рішення.

Але на відміну від прогнозів ми отримали Саманту раніше за Термінатора. Справжній прорив відбувся не в роботах з тілами (Embodied AI), а в безтілесних системах обробки мови. І так, ChatGPT, NotebookLM або ElevenLabs можуть гарно імітувати розмову, але ще дуже далекі від спроможності HAL 9000, не кажучи вже про Skynet. Репліканти залишаються фантастикою, в той час, коли LLM стали повсякденністю.

Важливо зазначити, що всі ці кінообрази не просто розважали нас. Вони стали нашою "картою очікувань" від ШІ та вплинули на реальну політику. Коли регулятори сьогодні кажуть про "екзистенційні ризики" AGI, вони використовують метафори Skynet. Коли вимагають "alignment" з людськими цінностями, це відлуння законів робототехніки Азімова. Дискусії про права ШІ копіюють дилеми з "Того, хто біжить по лезу".

Голлівудські фільми навчили нас ставити правильні питання: як зберегти людський контроль, не втрачаючи переваг ШІ? Як уникнути емоційної залежності від машин? Хто несе відповідальність за дії автономних систем? І багато інших, які ми обговорювали вище.

Це правда — між ідеальним JARVIS та апокаліптичним Skynet є величезний простір для технологій, які зроблять життя кращим, залишивши нас людьми. Головне пам'ятати, що майбутнє ШІ залежить не від сценаристів Голівуд, а від наших рішень сьогодні.