Чому найшвидший шлях до ШІ людини на рівні людини може дати можливість розвиватися самостійно



Коли ми досягаємо своїх меж, це стає все більш зрозумілим, що глибоке навчання – специфічний підмножина технології ШІ – не магічно призведе до штучного інтелекту на рівні людини.

Якщо ми хочемо, щоб роботи могли мислити як ми, ми мусимо перестати давати їм усі відповіді. Цікавість та розвідка – це два ключові компоненти людського інтелекту, яких глибоке навчання просто не дає.

У недавній статті журналу Quanta письменник Метью Хатсон описує роботу вченого-комп’ютера Кеннета Стенлі, який зараз працює в лабораторії AI AI. Новаторська робота Стенлі в галузі "нейроеволюції" проклала шлях до нової парадигми штучного інтелекту, яка відхиляється від традиційних об'єктивних тренувальних моделей на користь моделей ШІ, які не мають іншої мети, окрім як досліджувати та бути творчими.

Хатсон пише:

Біологічна еволюція також є єдиною системою для вироблення інтелекту людини, що є кінцевою мрією багатьох дослідників ШІ. Через досвід біології, Стенлі та інші вважають, що якщо ми хочемо алгоритми, здатні орієнтуватися у фізичному та соціальному світі так легко, як ми можемо – чи краще! – нам потрібно наслідувати тактику природи.

Замість того, щоб чітко кодувати правила міркування чи комп'ютери навчитися високо оцінювати конкретні показники продуктивності, вони стверджують, що ми повинні дозволити розширенню груп рішень. Зробіть для них пріоритет новизною чи цікавістю замість можливості ходити чи розмовляти. Вони можуть виявити непрямий шлях, набір кроків та відмовитись від ходьби та розмови краще, ніж якби вони шукали ці навички безпосередньо.

Стандартні моделі глибокого навчання використовують чорну скриньку – набір ваг і параметрів, які, в кінцевому рахунку, стають занадто складними для розробників, щоб описати їх індивідуально – "заварити" алгоритми машинного навчання і налаштувати їх, поки вони не виплюнуть правильно дані. Це не інтелект, це престижність.

Якщо AI міг би розробляти власні рішення та поєднувати ці параметри з глибоким навчанням, це було б ближче до наслідування вирішенню проблем на рівні людини. Принаймні, так стверджує Стенлі.

Його дослідження передбачають побудову еволюційних алгоритмів, які можуть функціонувати в тандемі з глибокими системами навчання. По суті, замість того, щоб навчати AI вирішувати проблему, він розробляє такі алгоритми, що бачать те, на що вони здатні. Ці системи не винагороджуються за вирішення такої проблеми, як звичайні парадигми ШІ. Вони просто йдуть, поки щось не відбудеться. Примітно те, що без вирішення проблеми їм все-таки вдається вирішити багато проблем набагато ефективніше, ніж традиційні моделі глибокого навчання.

Більше з статті Хатсона в Quanta:

В одному тесті вони (Стенлі та дослідник Джоел Леман) помістили віртуальних колесних роботів у лабіринт і виробили алгоритми, що управляють ними, сподіваючись, що знайде шлях до виходу. Вони провели еволюцію з нуля 40 разів. Програма порівняння, в якій роботів вибирали, наскільки близько (як ворона летить) вони підійшли до виходу, еволюціонував робот-переможець лише 3 із 40 разів. Пошук новизни, який повністю ігнорував, наскільки близький кожен бот до виходу, вдався 39 разів. Це спрацювало тому, що ботам вдалося уникнути тупиків.

Глибоке навчання AI не знає, що робити, коли потрапляє в стіну. Після того, як машина застрягне, вона повинна запускатися заново – саме тому потрібно мільйони тренувальних циклів, щоб "навчити" AI успішно виконувати завдання. З гібридною моделлю на основі еволюційного алгоритму Стенлі, AI не намагається знайти вихід, він в основному просто робить речі, а потім намагається знайти ще багато чого робити. Цікавість машини майже щоразу змушує її проходити цілий лабіринт, тому що він намагається досліджувати.

Еволюційні алгоритми не є новими, але напрямок досліджень, що їх оточують, значною мірою перейшов на сторону на користь більш негайних можливостей розвитку в стандартній технології глибокого навчання – такому, який сприяє продажам B2B та B2C. І вони також недостатньо досліджені, оскільки вони дорогі. Для тренування вузького інтелектуального інтелекту потрібно набагато менше сил, ніж це для запуску еволюційних алгоритмів. Але окупність може бути величезною.

Головною ідеєю тут є підтримка інтелектуальної розвідки людського рівня про нещасні випадки, дозволяючи AI розвивати власні алгоритми, хоча і безперебійно розвідувати. Стенлі та інші вважають, що можливо, що AGI може проявлятися як побічний продукт машинної цікавості, подібно до того, як людська свідомість сталася в результаті біологічної еволюції.


Комп'ютери розвивають новий шлях до інтелекту людини
на журналі Quanta