Роздуми про АІ часто крутяться навколо питання: “Чи стане він розумнішим за нас?” Але, мабуть, важливіше інше: “Наскільки розумним нам його потрібно робити?”.
Колись Ейнштейн сказав: “Ми не можемо вирішити наші проблеми на тому ж рівні мислення, на якому ми їх створили” [1]. Якщо це правда, то створення надрозумного штучного інтелекту (Artificial General Intelligence – AGI) може бути єдиним способом вирішити найскладніші проблеми людства.
Але щоб зрозуміти, яким має бути ефективний кінцевий результат, варто розібратися у природі людського мислення, його обмеженнях і тому, як вони можуть вплинути на програмування алгоритмів AI. Якщо штучний інтелект навчатиметься на людських моделях мислення, чи не успадкує він нашу негнучкість? Ми можемо створити АGІ, який вирішуватиме проблеми інакше, ніж ми, або такого, що імітуватиме наш спосіб мислення – і в цьому прихований вибір. А може варто створити щось принципово інше.
Навігація
Ми любимо думати, що раціональні. Нам здається, що коли сперечаємося чи розв’язуємо складні наукові проблеми, ми застосовуємо чисту логіку. Але це лише ілюзія.
Наш мозок не був створений для об’єктивного аналізу. Він був створений для виживання. Замість того, щоб ретельно розраховувати кожне рішення, ми використовуємо евристики — розумові скорочення, які допомагають нам швидко діяти, навіть якщо вони не завжди точні. Дослідження Тверскі та Канемана «Judgment under Uncertainty: Heuristics and Biases» [4] показують, що більшість наших суджень базуються на приблизних стратегіях, які економлять зусилля, але водночас систематично ведуть до помилок. Простими словами – ми не стільки детально аналізуємо реальність, скільки пристосовуємо її до вже знайомих нам шаблонів. Це економить ресурси мозку, але призводить до систематичних помилок.
Наприклад, у класичному експерименті з ефектом прив’язки [4] учасників запитали: “Чи більше чи менше 10% країн ООН знаходяться в Африці?” Потім їх просили дати власну оцінку. Ті, кому показали 10%, давали значно нижчі відповіді, ніж ті, кому спершу назвали 65%.
Ці ж розумові ярлики (евристики) впливають і на роботу мовних моделей. Упираючись у потужності процесорів, оперативної пам’яті чіпів та обмеженості задіяних токенів, вони не обчислюють ідеальну відповідь, не аналізують інформацію з нуля, а знаходять найбільш імовірний патерн на основі вже завантажених даних.
Ще одна серйозна проблема: навіть коли нам здається, що ми ретельно аналізуємо ситуацію, це часто лише постфактумне обґрунтування вже прийнятого рішення.
Більшість людей не мислять із першопринципів, а просто використовують знайомі зразки з минулого досвіду, культури або соціального середовища [2]. Це означає, що наші рішення не ґрунтуються на раціональному аналізі, а радше на імпульсивному виборі, який ми згодом намагаємося пояснити логікою.
Докази цього можна знайти в дослідженнях про розщеплення мозку [5]. Майкл Газзаніга у 1980-х роках досліджував пацієнтів із роз’єднаними півкулями мозку. Він виявив, що ліва півкуля (відповідальна за мовлення) вигадувала історії, щоб пояснити дії правої півкулі, хоча насправді не знала їхніх справжніх мотивів. Наприклад, коли правій півкулі показували слово “стояти”, пацієнт вставав, а ліва півкуля (яка не бачила слова) виправдовувала це тим, що він “хотів піти по каву”.
Це свідчить про те, що наша свідомість часто працює як “прес-секретар”, який виправдовує рішення, що були ухвалені на іншому рівні. Це не просто особливість людського мислення. Сучасні великі мовні моделі (LLM) працюють за схожим принципом – вони не аналізують реальність, а просто дають найбільш ймовірну відповідь, що вписується в їхню завантажену базу знань.
У книзі “Thinking, Fast and Slow” Деніел Канеман зазначає, що люди впевнені у своїх судженнях навіть тоді, коли вони очевидно помилкові [7]. Це пояснює, чому експерти можуть давати катастрофічно неправильні прогнози, але не сумніватися у власній компетентності.
Якщо наше мислення побудоване на евристиках, чи варто нам прагнути створити АІ, який буде мислити інакше? Чи не вийде так, що справді раціональний штучний інтелект стане для нас незрозумілим і неприйнятним?
Дослідження показують, що люди часто більше довіряють не об’єктивним моделям, а тим, які приймають рішення подібно до них самих. Це означає, що якщо штучний інтелект буде надто логічним і позбавленим людських упереджень, люди просто відмовляться ним користуватися. Такі випадки зараз вже є і навіть у промтах додають інструкції – бути людянішим та враховувати уявлення і потреби аудиторії.
Зараз обговорюють три основних підходи до створення AGI:
Чи потрібен нам АІ, що тільки прогнозує події? Чи такий, що діє? Або ж ми хочемо АІ, який розуміє контекст і адаптується, як людина? Але якщо ми підемо далі, то стикаємося з більш складним питанням: що означає “розумний”, і чи хочемо ми, щоб АІ мислив інакше, ніж люди? Або, можливо, замість того, щоб змушувати імітувати людське мислення, варто зосередитися на створенні систем, які б доповнювали нас, а не повторювали наші помилки?
А якщо AGI буде занадто раціональним, він може ухвалювати рішення, які здаватимуться людям нелогічними з точки зору етики або людських почуттів. Наприклад, що робити, якщо він вирішить, що для виживання людства потрібні жорсткі обмеження свобод?
Більшість людей впевнені, що АІ має бути об’єктивним. Але ось парадокс: якщо АІ навчати на людських даних, він успадковує всі наші помилки. Це вже помічають “найстаріші” користувачі LLM – найпопулярніші мовні моделі стали “лінивими” – тобто вони демонструють небажання глибоко розглядати запит, обираючи найзагальніші відповіді. Це побічний ефект обмежень у навчанні моделей.
Коли OpenAI випустили одну з перших публічних LLM, багато хто очікував, що він буде “чесним і неупередженим”. Але що означає чесність для машини? Якщо його попросити розв’язати суперечливі питання, він намагатиметься балансувати між різними поглядами. Але це теж вибір — він ухвалює рішення не тому, що розуміє, а тому, що так його навчили. Про це ви можете детальніше прочитати в нашій іншій публікації «#8 Парадокс чутливості та цензури в генеруючих моделях» [4].
Якщо ж ми хочемо створити справді незалежний розумний АІ, то чи зможе він уникнути упереджень? Бо якщо AGI мислитиме так само негнучко, як і ми, чи не стане він такою ж перешкодою для розвитку, як і людські обмеження?
Людина не є незалежним раціональним агентом. Ми схильні покладатися на евристики та когнітивні упередження, замість глибокого аналізу просто підбираючи знайомі шаблони. Якщо штучний інтелект навчається на людських даних, то він теж переймає цю особливість. Але що це означає для AGI?
Можливі два шляхи розвитку:
Здавалося б, очевидно, що ми хочемо створити “наставника”. Але чи можливо це?
AGI вже сьогодні має одну з головних особливостей людського мислення – раз сформовані переконання важко змінити. Алгоритми LLM, як і наш мозок, прагнуть стабільності й чинять опір радикальним змінам. Це означає, що ми можемо створити систему, яка не допомагає нам розвиватися, а лише підсилює наші старі ідеї.
Уявімо світ, у якому AGI оптимізує інформацію під наші уподобання так само, як це роблять соціальні мережі. Замість того, щоб стимулювати інтелектуальний розвиток, він буде лише підживлювати вже існуючі переконання, роблячи суспільство ще більш поляризованим.
Тому справжнє майбутнє AGI – не просто в розв’язанні проблем, а в тому, щоб змушувати нас ставити правильні запитання. Якщо він не допомагатиме нам змінювати мислення, то стане не рятівником, а пасткою. Головне питання: чи наважимося ми створити інтелект, що сперечатиметься з нами…
Джерела
https://www.goodreads.com/quotes/320600-we-can-not-solve-our-problems-with-the-same-level
https://gist.github.com/ruvnet/f5d35a42823ded322116c48ea3bbbc92
https://www.aup.com.ua/news/8-paradoks-chutlivosti-ta-cenzuri-v-gene/
https://pubmed.ncbi.nlm.nih.gov/17835457/
https://fs.blog/michael-gazzaniga-the-interpreter/
https://www.goodreads.com/quotes/1132839-confidence-is-a-feeling-which-reflects-the-coherence-of-the