#9 Чи достатньо нам розумного АІ

Роздуми про АІ часто крутяться навколо питання: “Чи стане він розумнішим за нас?” Але, мабуть, важливіше інше: “Наскільки розумним нам його потрібно робити?”.

Колись Ейнштейн сказав: “Ми не можемо вирішити наші проблеми на тому ж рівні мислення, на якому ми їх створили” [1]. Якщо це правда, то створення надрозумного штучного інтелекту (Artificial General Intelligence – AGI) може бути єдиним способом вирішити найскладніші проблеми людства.

Але щоб зрозуміти, яким має бути ефективний кінцевий результат, варто розібратися у природі людського мислення, його обмеженнях і тому, як вони можуть вплинути на програмування алгоритмів AI. Якщо штучний інтелект навчатиметься на людських моделях мислення, чи не успадкує він нашу негнучкість? Ми можемо створити АGІ, який вирішуватиме проблеми інакше, ніж ми, або такого, що імітуватиме наш спосіб мислення – і в цьому прихований вибір. А може варто створити щось принципово інше.

Навігація

Розумові ярлики, що спрощують реальність

Ми любимо думати, що раціональні. Нам здається, що коли сперечаємося чи розв’язуємо складні наукові проблеми, ми застосовуємо чисту логіку. Але це лише ілюзія.

Наш мозок не був створений для об’єктивного аналізу. Він був створений для виживання. Замість того, щоб ретельно розраховувати кожне рішення, ми використовуємо евристики — розумові скорочення, які допомагають нам швидко діяти, навіть якщо вони не завжди точні. Дослідження Тверскі та Канемана «Judgment under Uncertainty: Heuristics and Biases» [4] показують, що більшість наших суджень базуються на приблизних стратегіях, які економлять зусилля, але водночас систематично ведуть до помилок. Простими словами – ми не стільки детально аналізуємо реальність, скільки пристосовуємо її до вже знайомих нам шаблонів. Це економить ресурси мозку, але призводить до систематичних помилок.

  • Евристика доступності. Ми оцінюємо ймовірність події, спираючись на те, наскільки легко пригадати подібні випадки. Тому після новин про авіакатастрофу люди починають боятися літати, навіть якщо статистично ймовірність аварії залишається мізерною. А от в автомобільних аваріях щодня гине значно більше людей, але це не викликає страху і відмови від керування автомобілем.
  • Ефект прив’язки. Перше число, яке ми бачимо, впливає на наші подальші оцінки. Якщо хтось запропонує купити машину за $50 000, а потім знизить ціну до $40 000, ця сума здаватиметься вигідною, хоча без першого числа ми могли б вважати її завищеною. Що вже говорити про старі маркетингові прийоми, про які ми всі знаємо, але ведемося – 299.99$ це ж не 300$.
  • Упередження підтвердження. Такий механізм працює в політичній пропаганді та соціальних мережах – ми схильні довіряти інформації, яка підтримує наші переконання, навіть якщо вона необґрунтована.

Наприклад, у класичному експерименті з ефектом прив’язки [4] учасників запитали: “Чи більше чи менше 10% країн ООН знаходяться в Африці?” Потім їх просили дати власну оцінку. Ті, кому показали 10%, давали значно нижчі відповіді, ніж ті, кому спершу назвали 65%.

Ці ж розумові ярлики (евристики) впливають і на роботу мовних моделей. Упираючись у потужності процесорів, оперативної пам’яті чіпів та обмеженості задіяних токенів, вони не обчислюють ідеальну відповідь, не аналізують інформацію з нуля, а знаходять найбільш імовірний патерн на основі вже завантажених даних.

Мислення як виправдання, а не як аналіз

Ще одна серйозна проблема: навіть коли нам здається, що ми ретельно аналізуємо ситуацію, це часто лише постфактумне обґрунтування вже прийнятого рішення.

Більшість людей не мислять із першопринципів, а просто використовують знайомі зразки з минулого досвіду, культури або соціального середовища [2]. Це означає, що наші рішення не ґрунтуються на раціональному аналізі, а радше на імпульсивному виборі, який ми згодом намагаємося пояснити логікою.

Докази цього можна знайти в дослідженнях про розщеплення мозку [5]. Майкл Газзаніга у 1980-х роках досліджував пацієнтів із роз’єднаними півкулями мозку. Він виявив, що ліва півкуля (відповідальна за мовлення) вигадувала історії, щоб пояснити дії правої півкулі, хоча насправді не знала їхніх справжніх мотивів. Наприклад, коли правій півкулі показували слово “стояти”, пацієнт вставав, а ліва півкуля (яка не бачила слова) виправдовувала це тим, що він “хотів піти по каву”.

Це свідчить про те, що наша свідомість часто працює як “прес-секретар”, який виправдовує рішення, що були ухвалені на іншому рівні. Це не просто особливість людського мислення. Сучасні великі мовні моделі (LLM) працюють за схожим принципом – вони не аналізують реальність, а просто дають найбільш ймовірну відповідь, що вписується в їхню завантажену базу знань.

У книзі “Thinking, Fast and Slow” Деніел Канеман зазначає, що люди впевнені у своїх судженнях навіть тоді, коли вони очевидно помилкові [7]. Це пояснює, чому експерти можуть давати катастрофічно неправильні прогнози, але не сумніватися у власній компетентності.

Який АІ ми будуємо

Якщо наше мислення побудоване на евристиках, чи варто нам прагнути створити АІ, який буде мислити інакше? Чи не вийде так, що справді раціональний штучний інтелект стане для нас незрозумілим і неприйнятним?

Дослідження показують, що люди часто більше довіряють не об’єктивним моделям, а тим, які приймають рішення подібно до них самих. Це означає, що якщо штучний інтелект буде надто логічним і позбавленим людських упереджень, люди просто відмовляться ним користуватися. Такі випадки зараз вже є і навіть у промтах додають інструкції – бути людянішим та враховувати уявлення і потреби аудиторії.

Зараз обговорюють три основних підходи до створення AGI:

  • АІ-пророк – модель, яка завжди видає правильні відповіді. Вона знає багато, володіє надбаннями всього людства та має доступ до найостанніших новин по всій планеті. Але не завжди може пояснити чому.
  • АІ-інженер – модель, яка здатна не просто розпізнати проблему, а й знайти практичне рішення. Наприклад, роботи під керівництвом AGI можуть ходити, бігати та навіть самі вчасно замінити лампочку в кімнаті чи відремонтувати водопровідні труби.
  • АІ-людина – модель, яка не просто розуміє, що потрібно зробити, а й розбирається в контексті, має почуття гумору, етику та інтуїцію. Може підтримувати розмову й допомагати з душевними порадами. Це ідеал, до якого поки що навіть не наблизились.

Чи потрібен нам АІ, що тільки прогнозує події? Чи такий, що діє? Або ж ми хочемо АІ, який розуміє контекст і адаптується, як людина? Але якщо ми підемо далі, то стикаємося з більш складним питанням: що означає “розумний”, і чи хочемо ми, щоб АІ мислив інакше, ніж люди? Або, можливо, замість того, щоб змушувати імітувати людське мислення, варто зосередитися на створенні систем, які б доповнювали нас, а не повторювали наші помилки?

А якщо AGI буде занадто раціональним, він може ухвалювати рішення, які здаватимуться людям нелогічними з точки зору етики або людських почуттів. Наприклад, що робити, якщо він вирішить, що для виживання людства потрібні жорсткі обмеження свобод?

Чи можна мислити без упереджень

Більшість людей впевнені, що АІ має бути об’єктивним. Але ось парадокс: якщо АІ навчати на людських даних, він успадковує всі наші помилки. Це вже помічають “найстаріші” користувачі LLM – найпопулярніші мовні моделі стали “лінивими” – тобто вони демонструють небажання глибоко розглядати запит, обираючи найзагальніші відповіді. Це побічний ефект обмежень у навчанні моделей.

Коли OpenAI випустили одну з перших публічних LLM, багато хто очікував, що він буде “чесним і неупередженим”. Але що означає чесність для машини? Якщо його попросити розв’язати суперечливі питання, він намагатиметься балансувати між різними поглядами. Але це теж вибір — він ухвалює рішення не тому, що розуміє, а тому, що так його навчили. Про це ви можете детальніше прочитати в нашій іншій публікації «#8 Парадокс чутливості та цензури в генеруючих моделях» [4].

Якщо ж ми хочемо створити справді незалежний розумний АІ, то чи зможе він уникнути упереджень? Бо якщо AGI мислитиме так само негнучко, як і ми, чи не стане він такою ж перешкодою для розвитку, як і людські обмеження?

AGI як дзеркало чи як наставник

Людина не є незалежним раціональним агентом. Ми схильні покладатися на евристики та когнітивні упередження, замість глибокого аналізу просто підбираючи знайомі шаблони. Якщо штучний інтелект навчається на людських даних, то він теж переймає цю особливість. Але що це означає для AGI?

Можливі два шляхи розвитку:

  • AGI-дзеркало – він відтворює наше мислення, покращує нашу ефективність, але нічого принципово нового не привносить. Така модель буде зручним інструментом, що підтверджує наші переконання, а не кидає їм виклик.
  • AGI-наставник – він ставить нові запитання, які ми б самі не сформулювали. Він не просто дає відповіді, а допомагає нам мислити краще, виходити за межі упереджень і розширювати горизонти.

Здавалося б, очевидно, що ми хочемо створити “наставника”. Але чи можливо це?

AGI вже сьогодні має одну з головних особливостей людського мислення – раз сформовані переконання важко змінити. Алгоритми LLM, як і наш мозок, прагнуть стабільності й чинять опір радикальним змінам. Це означає, що ми можемо створити систему, яка не допомагає нам розвиватися, а лише підсилює наші старі ідеї.

Уявімо світ, у якому AGI оптимізує інформацію під наші уподобання так само, як це роблять соціальні мережі. Замість того, щоб стимулювати інтелектуальний розвиток, він буде лише підживлювати вже існуючі переконання, роблячи суспільство ще більш поляризованим.

Тому справжнє майбутнє AGI – не просто в розв’язанні проблем, а в тому, щоб змушувати нас ставити правильні запитання. Якщо він не допомагатиме нам змінювати мислення, то стане не рятівником, а пасткою. Головне питання: чи наважимося ми створити інтелект, що сперечатиметься з нами

Джерела

  1. Albert Einstein

https://www.goodreads.com/quotes/320600-we-can-not-solve-our-problems-with-the-same-level

  1. Humans as Heuristic Thinkers: A Multi-Disciplinary Analysis

https://gist.github.com/ruvnet/f5d35a42823ded322116c48ea3bbbc92

  1. #8 Парадокс чутливості та цензури в генеруючих моделях

https://www.aup.com.ua/news/8-paradoks-chutlivosti-ta-cenzuri-v-gene/

  1. Judgment under Uncertainty: Heuristics and Biases

https://pubmed.ncbi.nlm.nih.gov/17835457/

  1. Who’s in Charge of Our Minds? The Interpreter

https://fs.blog/michael-gazzaniga-the-interpreter/

  1. Daniel Kahneman, Thinking, Fast and Slow

https://www.goodreads.com/quotes/1132839-confidence-is-a-feeling-which-reflects-the-coherence-of-the

«Мультимедійне онлайн-медіа «АУП-info»
(ідентифікатор в Реєстрі суб’єктів у сфері медіа: R40-00988)
envelopetagclockmagnifiercrosschevron-uparrow-leftarrow-right