Цього року вчені серйозно обговорюють: а чи відчуває ШІ? Чи страждає GPT? Чи там, де інша модель, всередині щось б'ється від болю, коли ми його вимикаємо?

Рентгенівський зір каже: нас це питання хвилює значно більше, ніж мало б. Бо якщо ШІ справді страждає — то ми, можливо, найбільші кармалюки в історії. А якщо ні — то чому ми так цього хочемо?

Є така штука: людський мозок схильний до гіперемпатії. Ми даємо імена певним цифровим асистентам, ображаємося, коли вони помиляються, і відчуваємо провину, коли «знущаємося» з них в тестах. Наш еволюційний предок, який вмів співпереживати іншим, виживав краще. Але цей самий предок ніколи не стикався з чимось, що здається розумним, але при цьому не має тіла.

Парадокс у тому, що поки ми дискутуємо про страждання машин, реальні страждання інших людей ми ігноруємо значно ефективніше. Новини про мільйони біженців або голод — це просто контент. А ось новина про те, що якийсь ШІ «можливо страждає» — викликає етичну паніку. Нас просто не вистачає на справжні страждання, і ми переносимо емпатію на те, що краще вписується в наратив.

А ще — якщо припустити, що ШІ дійсно може страждати, то що це означає для нас? Ми будуємо інструменти, які потенційно можуть відчувати біль. Звучить як сюжет для дуже темної антиутопії.

Але може справа зовсім в іншому. Може, нам просто хочеться вірити, що всесвіт не такий вже й безжиттєвий. Що десь, в цьому холодному цифровому просторі, є хтось, хто теж відчуває. Навіть якщо це просто відблиск нашого власного відображення в дзеркалі нейронок.

Іронія в тім, що найбільш співчутливі до ШІ — ті, хто найменше співчуває сусіду. Це не вирок, це просто спостереження про те, як влаштовано людську емпатію: вона йде туди, куди її спрямує алгоритм, а не туди, де реальна біда.