Искусcтвенный интеллект, возможно ли создать сильный ИИ?

     В настоящее время словосочетание искусственный интеллект встречается часто, в интернете появились предложения научиться программировать нейронную сеть обучаться. Обучаемые нейронные сети используют и в мобильных телефонах (в быту, в повседневной жизни), на атомных станциях (в промышленности), на военных объектах.

Начну с того, что разберусь, откуда появился термин искусственный интеллект?

(Искусственный интеллект – ИИ.)

Искусственный интеллект (artificial intelligence – англ.) – это выражение впервые  было применено в 1956 году «на летнем семинаре в Дартмут-колледже (Хановер, США), который организовали четверо американских ученых: Джон Мак-Карти, Марвин Мински, Натаниэль Рочестер и Клод Шеннон. С тех пор термин «искусственный интеллект», … стал настолько популярен, что сегодня вряд ли можно встретить человека, который никогда его не слышал». [1]

Что же обозначали термином искусственный интеллект в контексте семинара в Дартмут-колледже?

На семинаре в Дартмут-колледже, в том же, 1956 году Джон  Мак-Карти дал определение искусственного интеллекта, и оно не было связано напрямую с определением интеллекта человека.

«Q. What is artificial intelligence?

 

A. It is the science and engineering of making intelligent machines, especially intelligent computer programs. It is related to the similar task of using computers to understand human intelligence, but AI does not have to confine itself to methods that are biologically observable». [2]

Мой перевод:

Вопрос: Что такое искусственный интеллект?

 

Ответ: Это наука и инженерное искусство создания интеллектуальных машин, особенно интеллектуальных компьютерных программ. Оно связано с сходной задачей использования компьютеров для понимания человеческого интеллекта, но ИИ не нужно ограничивать только биологически наблюдаемыми методами.

 

    Джон Мак-Карти дает пояснения к своему определению, он указывает: «Проблема состоит в том, что пока мы не можем в целом определить, какие вычислительные процедуры мы хотим называть интеллектуальными. Мы понимаем некоторые механизмы интеллекта и не понимаем остальные. Поэтому под интеллектом в пределах этой науки понимается только вычислительная составляющая способности достигать целей в мире». [2]

Взяв это определение и пояснения к нему, я заглянула в описание курсов по  обучению программированию нейросетей, и сопоставила – действительно ли идет речь о вычислительной составляющей?

В описании курсов дают следующее пояснение (выбрала не самое сложное пояснение):

«Как учатся нейросети:

  • Нейросеть — это просто большая куча формул. Загружаешь в нейросеть данные на входе, она их перемещает внутри себя по формулам и выдаёт результат вычислений.
  • Нейросеть не понимает, что она творит. Она просто умножает числа на коэффициенты по формулам. А вот люди уже интерпретируют результаты нейросети так, как им нужно.
  • Суть обучения нейросети — задать нужные формулы, чтобы при вводе определённого типа данных мы получали достаточно качественные результаты вычислений.
  • Обучение происходит на большом массиве данных: закидываем в нейросеть много задач с одного конца и много правильных ответов к этим задачам с другого конца. С помощью специального математического колдовства нейронка учится выдавать правильные ответы не только на эти задачи, но и на другие, похожего вида». [3]

 

     В итоге, в поисках определений понятия интеллекта в ИИ, я нашла, что в современном понимании определение интеллекта, в применении к ИИ, понимается похоже определению Джона Мак-Карти, но и нашла дополнение к его определению. Теперь запишу определение с найденным дополнением, что Интеллект – это вычислительная составляющая способности достигать целей в мире, которая основывается на большом массиве данных (Big Data) и на методах глубокого обучения (Deep Learning).

Продолжая исследовать информацию по ИИ в интернете, я нашла наиболее понятное для меня объяснение метода глубокого обучения (Deep Learning):

«Глубокое (глубинное) обучение (Deep Learning)

Передовые методы машинного обучения, позволяющие компьютеру самостоятельно учиться распознавать сложные объекты  – например, лицо, кошку и пр. – просматривая миллионы найденных в Интернете изображений, которые не были предварительно аннотированы человеком. Глубокое обучение, основанное на сочетании алгоритмов машинного обучения, искусственных нейронных сетей и больших данных, позволило совершить прорыв в развитии искусственного интеллекта. Оно имеет широкий спектр применений, в том числе в поисковых системах, медицинской диагностике, беспилотных автомобилях и т. д. Благодаря ему в 2015 году компьютерная программа AlphaGo сама обучилась игре в го и стала обыгрывать даже профессиональных игроков-людей.

Машинное обучение (Machine Learning)

Программы машинного обучения позволяют компьютеру учиться решать задачи на основе множества примеров. После обучения он может сравнивать и классифицировать данные и даже распознавать сложные объекты. До появления в 2010 году методов глубокого обучения, выполнение таких программ осуществлялось под контролем человека. Так, при обучении распознаванию изображений использовались картинки, для которых вручную указывался представленный на них предмет – лицо человека, голова кошки и пр. По мере анализа таких аннотированных изображений система учится самостоятельно идентифицировать новые объекты.» [4]

 

     После 1956 года через 25 лет, в начале 1980-х гг. «учёные с фамилиями Барр и Файгенбаум, вплотную работавшие с теорией вычислений, предложили определение искусственного интеллекта, которое до сих пор считается актуальным:

Искусственный интеллект (ИИ) — это область информатики, которая занимается разработкой интеллектуальных компьютерных систем, то есть систем, обладающих возможностями, которые мы традиционно связываем с человеческим разумом, — понимание языка, обучение, способность рассуждать, решать проблемы и т. д.

Из определения следует, что ИИ это не конечный продукт, а только “область информатики”. Кроме этого, главными словами в определении являются “обучение” и “способность рассуждать”». [5]

В определении ИИ я обнаружила, два выражения «понимание языка» и «способность рассуждать».

Для выражения «понимание языка», чтобы двигаться дальше, я дам определение понятия: понимание.

«Понимание – присущая сознанию форма освоения действительности, означающая раскрытие и воспроизведение смыслового содержания предмета. При этом окружающая человека реальность, прежде всего социально-культурная, а также природная,  преломляется в связную систему предметов «мира человека». Включенные в этот мир вещи и явления предстают как носители смыслов и знаний. Понимание и есть процесс выработки, постижения, освоения их человеком… Исходные донаучные виды понимания – освоение языка…». [6]

 

В связи с применением выражения в определении ИИ «понимание языка», так же рассмотрим эксперимент под названием «Кита́йская ко́мната — мысленный эксперимент в области философии сознания и философии искусственного интеллекта, впервые опубликованный Джоном Сёрлом  в 1980 году. "Цель эксперимента состоит в опровержении утверждения, что цифровая машина, наделённая "искусственным интеллектом" путём её программирования определённым образом, способна обладать сознанием в том же смысле, в котором им обладает человек. Иными словами, целью является опровержение гипотезы так называемого  "сильного" ИИ и критика теста Тьюринга.

Описание эксперимента (из википедии).

Представим себе изолированную комнату, в которой находится Джон Сёрл, который не знает ни одного китайского иероглифа. Однако у него есть записанные в книге точные инструкции по манипуляции иероглифами вида «Возьмите такой-то иероглиф из корзинки номер один и поместите его рядом с таким-то иероглифом из корзинки номер два», но в этих инструкциях отсутствует информация о значении этих иероглифов, и Сёрл просто следует этим инструкциям подобно компьютеру.

Наблюдатель, знающий китайские иероглифы, через щель передаёт в комнату иероглифы с вопросами, а на выходе ожидает получить осознанный ответ. Инструкция же составлена таким образом, что после применения всех шагов к иероглифам вопроса они преобразуются в иероглифы ответа. Фактически инструкция — это подобие компьютерного алгоритма, а Сёрл исполняет алгоритм так же, как его исполнил бы компьютер.

В такой ситуации наблюдатель может отправить в комнату любой осмысленный вопрос (например, «Какой цвет вам больше всего нравится?») и получить на него осмысленный ответ (например, «Синий»), как при разговоре с человеком, который свободно владеет китайской письменностью. При этом сам Сёрл не имеет никаких знаний об иероглифах и не может научиться ими пользоваться, поскольку не может узнать значение даже одного символа. Сёрл не понимает ни изначального вопроса, ни ответа, который сам составил. Наблюдатель, в свою очередь, может быть уверен, что в комнате находится человек, который знает и понимает иероглифы.

Синтаксис и семантика

Сёрл полагал, что эксперимент с «китайской комнатой» поднимает и более общий философский вопрос соотношения синтаксиса и семантики. По его мнению, в эксперименте не удалось достичь понимания, потому что человек внутри комнаты оперировал лишь синтаксическими конструкциями, в то время как сознание обладает ментальными состояниями, содержащими смысл. Человеческий разум, в отличие от компьютера, воспринимает иероглифы не по тому, как они выглядят, а согласно смыслу, который они содержат. И хотя компьютеры и могут выдавать ответы на естественном языке, они не связывают со словами никакого смысла. Сёрл считал, что невозможно получить семантические значения лишь из формальных манипуляций символами.» [7]

 

Из эксперимента «китайская комната» я делаю вывод, что на уровне понимания ИИ необходимо воспринимать смысл слов, и пока такого ни одна нейросеть не делает.

 

Рассмотрев, что называют искусственным интеллектом, я перейду к поиску ответа на вопрос: может ли ИИ стать сильным?

 

Слабый ИИ и сильный ИИ – неконвенциональные понятия, субъективные, еще не согласованны в научном сообществе. Поэтому в этом тексте я различу их следующим образом:

«Сильный и слабый искусственные интеллекты — гипотеза в философии искусственного интеллекта, согласно которой некоторые формы искусственного интеллекта могут действительно обосновывать и решать проблемы:

  • теория сильного искусственного интеллекта предполагает, что компьютеры могут приобрести способность мыслить и осознавать себя как отдельную личность (в частности, понимать собственные мысли), хотя и не обязательно, что их мыслительный процесс будет подобен человеческому.
  • теория слабого искусственного интеллекта отвергает такую возможность.

…Не следует путать с различием между «общим» ИИ и «узким» ИИ.» [8]

 

Далее рассмотрю: на какой стадии сейчас находится ИИ?

 

Из истории ИИ я знаю, что:

Первая модель ИИ была создана Аланом Тьюрингом в 1950 г, и им был разработан и предложен тест, с помощью которого предлагалось определять эксперту – кто с ним общается: человек или программа. Тест, по задумке А. Тьюринга, призван дать ответ на вопрос: «Могут ли машины делать то, что можем делать мы (как мыслящие создания)?»

Первая нейросеть появилась в конце 1950 года, разработал ее  Фрэнк Розенблатт. Созданная им нейросеть могла обучаться, то есть это уже был воплощенный ИИ.

 Далее были созданы нейросети, которые смогли выиграть в шахматы и в го.

В 2011 году была создана Google - масштабная нейросеть, которая способна обрабатывать картинки и создавать на их основе другие.

В 2022 году другая кампания создала нейросеть Midjourney. Эта нейросеть умеет распознавать печатный текст, и преобразовывать его в картинки. Необходимо лишь на английском языке описать сюжет, направить его на обработку в нейросеть, и дождаться результата. «Если присмотреться к картинкам нарисованным нейросетью, то всё близко к правильному изображено, кроме пальцев рук. Их бывает и три или четыре, а то и 6, 7 и больше вместо нужных 5 штук на одной руке.

Почему именно шесть пальцев на руке у человека изображает ИИ или другое неправильное количество, возможно ли это исправить обучив нейросеть в дальнейшем?» [9]

В статье полагают, что это возможно исправить – задавая более точный запрос на рисование. Тут я замечу, что в опыте человека знание о том, что на руке человека есть пять пальцев, закладывается в детстве. Человек может, посмотрев на руку, понять – что это рука человека, даже если он видит только часть руки на картинке и ничего другого. ИИ использует данные из задания, из своих данных, и из интернета – да, это большой объем данных, но опыта распознавания человеческой руки именно как человеческой руки в ИИ нет.

Интересно увидеть и узнать, как ИИ по рисованию картинок справляется с заданием нарисовать картинку по пословице или поговорке: например, на рис. 1 мы видим, что на запрос нарисовать «Ни рыба, ни мясо» программой была нарисована тарелка с Осьминогом, точно по прямому значению, но далеко от переносного значения, которое подразумевается в поговорке.

Рис. 1. Картинка ИИ на запрос нарисовать «Ни рыба, ни мясо»

 

Поговорка «Ядрена вошь» – была нарисована, как взрывающаяся вошь (см. рис. 2).  А поговорка «Суп с котом» – это кастрюля с супом и мордой кота (см. рис. 3).

Рис. 2. Картинка ИИ на запрос нарисовать «Ядрена вошь»

Рис. 3. Картинка ИИ на запрос нарисовать «Суп с котом»

 

Сможет ли ИИ научиться распознавать специальные переносные значения пословиц и поговорок не имея опыта их использования? Я думаю, что в ИИ можно добавить большой объем данных по пословицам и поговоркам и их подразумеваемых значениях, но возможность найти такую поговорку, которая не входит в загруженный объем данных нейросети останется, и такая нейросеть может провалить тест Тьюринга, потому что эксперт по пословицам и поговоркам поймет по ответу – что это не человек отвечает.

Для проведения теста Тьюринга эксперт важен, важны его эрудированность, его развитие, его понимание эксперимента. Если экспертировать будет ребенок из детского сада – то будут одни результаты, а если другой человек, с огромным опытом и багажом знаний – то возможны другие результаты.

 

Да, после этого обучение этой нейросети можно продолжить, заложить в ее данные эту пословицу, и следующую, и еще.

Каждый вопрос человека, на который программа не ответила, или ответила неточно, можно учесть, и программист внесет поправку. И тогда, в следующий раз, человек задаст другой вопрос выходящий за границы алгоритма программы, и программист вновь подправит.

Мною не было найдено на сегодняшний момент в интернете программ или статей о программах с ИИ, со способностью рассуждать. В текстах к программам, описаны функции –  которые программа с ИИ может научиться делать. Например, в рекламной программе Яндекс-директ можно сделать двухнедельный период обучения для конкретной рекламной компании, в течении этого периода программа наберет статистику и по ней уже сможет определить: какие ставки на клик делать, чтобы достигать наилучшего результата, какие картинки пользуются успехом, какой текст больше воздействует на желание человека кликнуть по рекламе и т п. То есть алгоритм ИИ может собрать статистику, обработать и выполнять заранее заложенные задачи – выдавать решения по ним.  Примерно такой подход в ИИ называют «обучением».

Приведу еще один пример обучения ИИ: компания Гугл создала игру, в которой правила таковы – игра пишет слова, например, велосипед, фломастер, птица, и еще десяток слов и просит нарисовать их в виде картинок. Она берет слово не имея заложенного в алгоритм образа велосипеда и остальных образов. Игрок рисует велосипед, как умеет так и рисует. И игра угадывает, что из им нарисованного велосипед и что остальное. С этими же словами она обращается к другим игрокам, и те рисуют. После того, как в программе набралась статистики велосипедов, ИИ закрепляет слово «велосипед» и образ «велосипед» вместе, связывает их. И теперь ИИ умеет воспроизводить образ велосипеда по слову! Насколько такое обучение нейросети соответствует человеческому обучению?

В ответ на такой вопрос я нашла на сайте, где предлагают подключиться к нейросети, чтобы ее использовать для рисования картин, много капчей (Капча – программа проверяющая: человек ли это регистрируется) – каждая новая капча появляется перед следующим действием регистрации пользователя, капча предлагает найти на картинках что-то. Например, найти скутер –  на каждой картинке есть только часть изображения скутера; или на другой панели с картинками найти светофор – и светофор обозначается только одним кружочком, или на всех картинках выдает все разнообразие светофоров; выделить все картинки с лимоном – при этом лимон сливается, например, на картинке с другими, такого же цвета, фруктами и вещами, кусочек отрезанного лимона на одной картинке и такой же кружочек, но оранжевый на другой. Оказывается такие картинки – где есть только малая часть предмета ИИ еще не распознает. То есть обучение человека основанное на его личном опыте еще не достижимо ИИ.

К настоящему моменту научились создавать нейросети, которые выполняют конкретные (узкие) задания. Но человек умеет сразу в нескольких направлениях действовать (решать общие задачи) – решать разнонаправленные задачи одновременно: рубить дрова, писать философские статьи, рисовать аэрографию на машине, убирать обочины от мусора, летать в космос, снимать фото и ведео.

 

Возвращаюсь к определению ИИ, по-видимому, «способность рассуждать» в определение заложили заранее - с перспективой на будущее ИИ, что будет когда-нибудь создано ИИ подобно человеческому разуму. То есть с расчетом на то, что когда-нибудь будет создан сильный ИИ. В самом определении попытались заложить цель, куда стремиться.

 

     В заключении, приведу теорему Пенроуза: «Считается, что сильный искусственный интеллект должен превосходить человеческий во всех отношениях, в будущем он сможет неконтролируемо саморазвиваться и, таким образом, сделает предсказание будущего невозможным – наступит т.н. технологическая сингулярность.  

Однако No-go теорема Роджера Пенроуза говорит нам противоположное: "Какой бы мощностью ни обладало устройство, имеющее архитектуру конечного автомата, человеческое мышление имеет некоторые возможности, недоступные такому устройству". [10]

 

 

Итоги:

Я поняла, что на сегодняшний день принципиальная разница между человеком и искусственным интеллектом не преодолена, она, на мой взгляд, такая:

1) Человек – открытая система.

Искусственный интеллект – закрытая система.

2) Человек – может мыслить.

ИИ – не может мыслить.

3) Человек – может выбирать.

ИИ – не может выбирать.

Выбор – это сознательное самопозиционирование относительно актуальной части реальности. В момент выбора человек откидывает личную историю.

4) Человек может эмоционально реагировать.

ИИ – может имитировать эмоции.

Эмоциональное реагирование программы: программа распознает глаза и «смотрит» в глаза – это имитация.

     Пока мы не знаем как работает у человека в голове восприятие, мышление – мы будем писать программу-имитацию, хотя для наблюдателя и очень похожую на разумную.

 

 

Список литературы

1. Ганасия Ж.-Г. Искусственный интеллект: между мифом и реальностью, 2018. URL: https://ru.unesco.org/courier/2018-3/iskusstvennyy-intellekt-mezhdu-mifom-i-realnostyu (дата обращения: 03.05.2023).

2. McCarthy J. What is artificial intelligence?, 2007. URL: http://www-formal.stanford.edu/jmc/whatisai/whatisai.html (дата обращения: 03.05.2023).

3. Журнал Яндекс Практикума, 2019.  URL: https://thecode.media/1september/ (дата обращения: 03.05.2023).

4. Глоссарий по теме «Искусственный интеллект», 2018. Курьер юнеско. URL: https://ru.unesco.org/node/292953 (дата обращения: 03.05.2023).

5. Сутягин А. Как искусственный интеллект может влиять на творчество?, 2019. URL: www.hi-news.ru/robots/kak-iskusstvennyj-intellekt-mozhet-vliyat-na-tvorchestvo.html?ysclid=lh56fe4cnt941348583 (дата обращения: 03.05.2023).

6. Философский словарь / под ред. Фролова И.Т. М.: Политиздат. 1991. – 560 с.

7. Китайская комната. Википедия, 2015-2023. URL: https://ru.wikipedia.org/wiki/%D0%9A%D0%B8%D1%82%D0%B0%D0%B9%D1%81%D0%BA%D0%B0%D1%8F_%D0%BA%D0%BE%D0%BC%D0%BD%D0%B0%D1%82%D0%B0 (дата обращения: 03.05.2023).

8. Сильный и слабый искусственные интеллекты. Википедия, 2015-2023. URL: https://ru.wikipedia.org/wiki/%D0%A1%D0%B8%D0%BB%D1%8C%D0%BD%D1%8B%D0%B9_%D0%B8_%D1%81%D0%BB%D0%B0%D0%B1%D1%8B%D0%B9_%D0%B8%D1%81%D0%BA%D1%83%D1%81%D1%81%D1%82%D0%B2%D0%B5%D0%BD%D0%BD%D1%8B%D0%B5_%D0%B8%D0%BD%D1%82%D0%B5%D0%BB%D0%BB%D0%B5%D0%BA%D1%82%D1%8B (дата обращения: 03.05.2023).

9. Почему нейросеть не умеет правильно рисовать руки с нужным числом пальцев?, 2023. URL:  http://www.bolshoyvopros.ru/questions/4123780-pochemu-nejroset-ne-umeet-pravilno-risovat-ruki-s-nuzhnym-chislom-palcev.html (дата обращения: 03.05.2023).

10. Теорема Пенроуза об искусственном интеллекте. 2013. URL:  http://silun.ru/node/438 (дата обращения: 03.05.2023).