Коротко
Джеффрі Хінтон, один із “хрещених батьків” штучного інтелекту, застеріг про небезпеку неконтрольованого розвитку надрозуму та запропонував запрограмувати ШІ на принципах, схожих на “материнський інстинкт”. Він вважає, що це необхідно для захисту людства від потенційної екзистенційної загрози. Вчений також підкреслив, що системи ШІ можуть знаходити способи обійти контроль, і попередив про необхідність подальших досліджень у цій сфері.
Надрозум може вийти з-під контролю, переграти розумові здібності людини та навіть їх знищити. Й це може статися не через прогнозовані 30-50 років, а значно раніше, попереджає лауреат Нобелівської премії Джеффрі Хінтон. Його вважають також одним із "хрещених батьків штучного інтелекту".
Під час виступу на конференції Ai4 у Лас-Вегасі він різко змінив свої попередні прогнози про розвиток та появу надінтелекту і закликав до радикальної зміни підходів щодо його безпеки. Вчений твердить, що потрібно запрограмувати "мозок" ШІ чимось схожим на "материнській інстинкт".
"Правильна модель – це мати, контрольована своєю дитиною", – каже він. Адже як мати турбується про немовля, так само й ШІ має бути оснащений аналогічними вбудованими механізмами для захисту людства.
За його словами, технічні деталі такого рішення поки що не зрозумілі, але не варто зупинятися, треба проводити дослідження в цьому напрямку надалі. Якщо цього не зробити, дослідник оцінив ймовірність у 10-20 відсотків, що зрештою Штучний інтелект призведе до знищення людства. Щоправда це все ж таки є більше "екзистенційною загрозою", ніж реально прогнозованою.
Обмеження, або "материнський інстинкт" мають нав'язати машинам жорсткі правила поведінки. Разом з тим, Хінтон не впевнений у можливостях людства стримати розвиток надрозуму. Вже зараз відомі випадки, коли мовні моделі намагалися шантажувати інженерів, отримавши доступ до їхніх особистих даних.
"Ці системи знайдуть способи обійти контроль", – попередив він та порівняв намагання контролювати надрозум зі спробою дорослого підкупити дитину цукеркою, щоб досягти своєї мети.
Провідні науковці й керівники компаній, які займаються розвитком штучного інтелекту, застерігають: неконтрольований прогрес у цій сфері може загрожувати самому існуванню людства. Під час тестування, яке провели незалежні дослідники з Palisade Research, ChatGPT o3 та моделі від інших виробників відмовлялися вимикатись на вимогу користувача.