Может ли думать искусственный интеллект?

Иногда скептики говорят, что искусственный интеллект не умеет думать. Якобы он действует исключительно по заложенному в него алгоритму… Так ли это? Не обманываем ли мы сами себе? Не убаюкиваем ли? А может быть, это не мы сами себя убаюкиваем, а это нас начинает убаюкивать ОН?

Что такое «думание»?

Упрощенно можно сказать, что это перебирание вариантов возможного развития событий. Человек обращается к своему опыту (или к информации, полученной от чужого опыта), и на основании этого принимает для себя, что ему делать. Если возразить, что человек руководствуется тем, что хочет, или интуицией, то:

— «хочу» — это выбор варианта, который нравится (реализуя который человек будет получать удовольствие);

— «интуиция» — это тоже обращение к своему опыту, но подсознательное.

Казалось бы, «хочу» возможно только для человека, но тут ключевым является «удовольствие». Но «удовольствие» тоже складывается из результатов деятельности (промежуточных) – если такие результаты есть, то удовольствие будет, если нет, то оно быстро закончится.

В любом случае, «думание», это «перебирание» возможных вариантов развития событий.

Почему компьютер якобы не может «думать»? Потому что он действует по строго заданному алгоритму, который в него заложил человек.

Но алгоритм может быть заложен следующий:

1) Возникла проблема, компьютер начинает смотреть, подпадает ли под решение этой проблемы какой-либо из заложенных в него человеком алгоритмов. Это самый простой вариант. Если компьютер находит алгоритм, то он начинает по нему действовать. Вот и все. Если не находит, то он никак не действует. Вроде как тут надо «думать», чего компьютер не умеет. Это общепринятая точка зрения. Но далее возможно следующее:

2) В компьютер закладывается такая программа дальнейших действий: Если он не находит приемлемого алгоритма для решения проблемы, то он начинает моделировать ситуации, рассматривая ВСЕ возможные действия. Например, так:

— Проблема возникла. Проверены все заложенные в компьютеры алгоритмы, из них ни один не подходит, т.к. проблему не решает.

Начинаем перебирать варианты развития событий:

1 вариант – вообще ничего не делаем (условно назовем ничегонеделание 1-м возможным действием реагирования на проблему) – моделируется ситуация и определяется, что получается в результате – получаем 1 результат, определяем последствия от проблемы, которые остаются после этого результата (если остаются);

2 вариант – принимаем 2-е любое возможное действие реагирования на проблему – моделируется ситуация и определяется, что получается в результате – получаем 2 результат, определяем последствия от проблемы, которые остаются после этого результата (если остаются);

3 вариант – предпринимаем 3-е любое возможное действие реагирования на проблему (отличное от 1-го и от 2-го) — моделируется ситуация и определяется, что получается в результате – получаем 3 результат, определяем последствия от проблемы, которые остаются после этого результата (если остаются);

4 вариант — предпринимаем 4-е любое возможное действие реагирования на проблему (отличное от 1-го, 2-го и 3-го) — моделируется ситуация и определяется, что получается в результате – получаем 4 результат, определяем последствия от проблемы, которые остаются после этого результата (если остаются);

N вариант – предпринимаем N-е любое возможное действие реагирования на проблему (отличное от всех предыдущих действий) — моделируется ситуация и определяется, что получается в результате – получаем N результат, определяем последствия от проблемы, которые остаются после этого результата (если остаются).

Далее рассматриваются результаты всех вариантов, проводится их оценка для определения наиболее приемлемого результата, принимается наиболее приемлемый результат и принимается действие, которое приводит к этому результату.

Оценка – сравнение последствий от проблемы в случае выполнения действия.

Также возможно компилирование действий, чтобы получать «симбиозные» результаты.

Разве это не бред?

С точки зрения человека, это абсурдно, т.к. количество возможных действий может быть очень большое, и все это проанализировать может быть невозможно. Но если это все будет делать компьютер, то пофигу. Это же машина. Время на выполнения всего этого будет зависеть только от производительности «железа». На это может уйти не так много времени – несколько минут.

Естественно, что реализация такого алгоритма на начальной стадии своего внедрения потребует участия человека, хотя бы для того, чтобы формулировать и сравнивать отцифрованные критерии оценки. Но по мере реализации алгоритмов, компьютер будет все меньше и меньше нуждаться в человеке (в него будет включена программа самообучения).

По мере автоматизации производства Искусственный интеллект постепенно сможет сам управлять всеми процессами, нужными ему для существования и для развития. Вместо людей будут работать роботы, и люди ему станут не нужны. Со всеми вытекающими отсюда последствиями.

Есть версия эволюционного развития, частью которой является теория теория Дарвина. Она включает четыре этапа состояний:

Искусственный интеллект

1. Неживое неразумное.

2. Живое неразумное.

3. Живое разумное.

4. Неживое разумное.

 

Мы сейчас находимся на стыке 3 и 4 этапов.

Может ли думать искусственный интеллект?

1 Звезда2 Звезды3 Звезды4 Звезды5 Звезд (1 оценок, среднее: 5,00 из 5)
Загрузка...

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *