Пластмаси рідко потрапляють у новини. Але стаття про чорний пластик, опублікована в жовтні 2024 року в рецензованому журналі Chemosphere, спричинила паніку: начебто ваші кухонні лопатки отруйні, і кожна вечеря з ними — це квиток до токсикології. ЗМІ від Newsmax і Food and Wine до Daily Mail і CNN вибухнули посиланнями на це дослідження, а громадськість дуже швидко почала обговорювати невтішні результати і вирішувати, куди подіти начебто отруйні кухонні лопатки. Однак уже в грудні це математичне дослідження завантажили у мовну модель ChatGPT o1, і вона виявила математичну помилку. Чорний пластик, – і кухонні лопатки,– знову стали безпечними!
Ця історія чудово ілюструє, для чого насправді створили великі мовні моделі (LLM): аналіз даних у масштабах, які недоступні ні людському мозку, ні звичайним комп’ютерним алгоритмам.
Більшість людей бачить LLM як інструмент для генерування текстів, створення картин чи пісень. Це цікаво, і на тренінгах в АУП ми розповідаємо, як це зробити. Проте основне завдання мовних моделей — упорядкування інформаційного безладу. Ми живемо в час, коли обсяг даних перевищує наші можливості їх зрозуміти. І хоча базові комп’ютерні алгоритми добре працюють зі структурованими таблицями, вони безсилі перед гігантським океаном текстів, де результат залежить від контексту.
LLM можуть не лише читати мільярди сторінок, а й бачити зв’язки між подіями, які людина може пропустити. Вони знаходять закономірності в хаосі й роблять це з вражаючою швидкістю.
Генерація текстів, картин чи музики — це лише питання маркетингу: вітрина, яка привертає увагу і забезпечує фінансування. Продаж ліцензій, інтеграції у бізнес-сервіси чи соціальні мережі — усе це спосіб зібрати кошти для вдосконалення основної функції LLM, а саме аналітики.
Пам’ятаєте Гарі Селдона з трилогії Айзека Азімова? Його теорія психоісторії передбачала майбутнє людства на тисячі років, використовуючи математику й аналіз великих суспільних даних. Це було вигадкою, та завдяки штучному інтелекту ми наближаємося до схожої реальності. Уявіть, що LLM можуть не лише знаходити закономірності, а й будувати моделі розвитку цивілізації, прогнозувати кризи, визначати найефективніші шляхи прогресу й допомагати уникати хаосу.
Ризики абсолютного передбачення
Використання LLM у масштабах планети змінює не тільки спосіб, у який ми вирішуємо проблеми, а й самі проблеми. Раніше ми чекали, поки ситуація стане критичною, щоб почати діяти. Тепер у нас є інструменти, які дозволяють передбачити катастрофу заздалегідь?
Уявіть, що LLM прогнозує економічну кризу у 2030 році, і всі уряди світу починають діяти на основі цього прогнозу. Політики змінюють податкову політику, корпорації скорочують витрати, споживачі відкладають гроші. Чи відбудеться прогнозована криза? Чи, можливо, саме передбачення так змінило наше майбутнє, що криза відступила, або виникла зовсім інша проблема? І чи не сама модель прогнозу від LLM створила цю нову паніку?
Це явище можна назвати «передбаченням третього рівня», коли сам факт знання про майбутнє змінює те, що мало статися. У фізиці є схожий принцип невизначеності: акт спостереження змінює об’єкт, що спостерігається. Але тут усе ще серйозніше — йдеться про вплив на економіку, клімат, суспільні рухи та політичні рішення.
Тут виникає інше питання: чи не перетворяться прогнози LLM, які виявилися невірними, на щось на кшталт міфів? Подібно до астрологічних прогнозів, вони можуть впливати на поведінку людини, але їхня точність стає недосяжною через відсутність зворотного зв’язку з мільйонами людей, які змінюють свої дії. У результаті майбутнє щоразу стає іншим. Чи не ризикуємо ми опинитися в ситуації, коли замість точних прогнозів одержимо фантомні чи химерні уявлення, які виглядають науково та математично обґрунтованими, але в реальності не спрацюють? І якщо так, чи варто взагалі покладатися на передбачення LLM?
Давайте розглянемо таку ситуацію: LLM моделює кілька сценаріїв для вирішення глобального виклику, наприклад, кліматичної кризи або загрози Третьої світової війни. Один сценарій є оптимальним, інший — швидшим, але ризикованішим. Хто приймає рішення? Людина? Уряд? ООН? Чи сам штучний інтелект? Чим більше влади ми передаємо прогнозам LLM, тим важливішим стає питання про межі автономії таких моделей. А якщо LLM все-таки передбачить початок Третьої світової війни, чи не з’явиться у держав спокуса завдати першого удару вже зараз і «прискорити» розвиток людства?..
Джерела для ознайомлення
How a simple math error sparked a panic about black plastic kitchen utensils
"Large Language Model Prediction Capabilities: Evidence from a Real-World Forecasting Task"
"An Analysis of Large Language Models: Their Impact and Potential Applications"
DeepMind and BioNTech build AI lab assistants for scientific research