Loqal – новинний агрегатор Loqal
Наука і технології

Microsoft застерігає від досліджень "свідомості ШІ"

Microsoft застерігає від досліджень "свідомості ШІ"
Double.news • 1 хв читання

Коротко

Мустафа Сулейман, керівник ШІ в Microsoft, висловив застереження щодо досліджень "свідомості ШІ", вважаючи їх передчасними та потенційно шкідливими. Він критикує концепцію “AI welfare”, яка передбачає вивчення можливості суб’єктивних відчуттів у моделей штучного інтелекту, оскільки це може призвести до емоційного зв'язку людей з чат-ботами та поглибити соціальні розбіжності. Позиція Microsoft контрастує з підходом інших компаній, таких як Anthropic, OpenAI та Google DeepMind, які активно досліджують цю тему.

Як повідомляє TechCrunch посилаючись на публікацї у блозі, опублікованому 19 серпня, Сулейман розкритикував новий напрямок досліджень, відомий у Кремнієвій долині як “AI welfare” — вивчення можливості виникнення у моделей суб’єктивних відчуттів і потенційних «прав ШІ».

Сулейман вважає, що вивчення «свідомості ШІ» не лише передчасне, а й шкідливе, адже воно може посилювати небезпечну емоційну прив’язаність людей до чат-ботів і створювати нові лінії поділу в суспільстві, яке й так розділене питаннями ідентичності та прав. «Ми маємо створювати ШІ для людей, а не як людину», — підкреслив він.

Позиція Microsoft різко контрастує з підходом інших гравців індустрії. Наприклад, Anthropic запустила спеціальну дослідницьку програму, присвячену темі AI welfare, щоб глибше вивчати можливість появи «свідомості» у моделей.

Свою зацікавленість у темі виявили також OpenAI та Google DeepMind, які активно залучають науковців для дослідження питань когніції та свідомості штучного інтелекту. Це свідчить про зростання уваги до проблематики на найвищому рівні в галузі.

Окремо варто відзначити дослідницьку групу Eleos, яка у 2024 році разом із науковцями NYU, Stanford та Оксфорду опублікувала роботу “Taking AI Welfare Seriously”. У ній автори закликали перестати сприймати це як наукову фантастику й почати системно вивчати питання «благополуччя ШІ».

На думку представниці Eleos, колишньої співробітниці OpenAI Ларісси Скіаво, позиція Сулеймана надто однобока. Вона підкреслила, що можна одночасно займатися мінімізацією ризиків для людей і паралельно досліджувати можливу «свідомість» моделей.