«Жертва» искусственного интеллекта. Новинки в мире технологий
Авторы Наши партнёры Наши проекты: IT Worldall CIOIT Contact
IT-News
Вход
X

Логин

Пароль

Запомнить

Забыли свой пароль?

«Жертва» искусственного интеллекта

Лента новостейФакты и прогнозыТехнологии

«Жертва» искусственного интеллекта

| 30.11.2017

«Какой будет следующая игра для искусственного интеллекта?» - именно такой вопрос задавали все год назад, когда компьютерная программа победила чемпиона мира по игре Го. И как это не парадоксально звучит, но следующим противником ИИ по игре на звание сильнейшего, может оказаться автор этой статьи - чемпион мира по игре CTOR.

Справка

Владимир Бронников защитил кандидатскую диссертацию по зрению роботов, руководил разработками нейрокомпьютеров в лаборатории «Математической биологии» Санкт-Петербургского университета, был руководителем работ по супер-ЭВМ «Локон» на базе 64 тыс. процессоров. В 1986 году изобрел новую логическую игру CTOR (Cellular Torus), которая была популярна в России в конце 90-х и выпущена тиражом 100 тыс. экземпляров. Владимир автор многочисленных статей и монографии «Математическое моделирование биосистем» (ЛГУ, 1989). В настоящее время проживает в Канаде, где основал компанию CTOR GAME Inc., и продолжает работы по теме: «коллективные логические игры на базе CTOR” в 2016 году выступил на конференции TEDx с лекцией «Как измерить коллективное мышление?».

Как это произошло?

С самого начала появления компьютеров (1949 год) и даже раньше (1933 год, работы Алана Тьюринга), математики и кибернетики, в качестве главного критерия оценки мощности своих алгоритмов, рассматривали игру в шахматы. Логические игры, которые не содержат случайных выборов, называются играми с открытыми правилами. За последние 5000 лет таких игр было изобретено не менее 100, и это те, в которые играют. А сколько осталось вне поля зрения исследователей? В 1996 году программа Deep Blue (IBM) победила действующего чемпиона мира по шахматам Гарри Каспарова. Через 20 лет, в 2016 году произошло еще одно эпохальное событие – программа AlphaGo компании Google, победила чемпиона мира в игре Го.

Почему так долго ИИ не мог победить человека в Го?

Го — одна из древнейших настольных игр. До недавнего времени было принято считать, что компьютер не способен играть на равных с профессиональным игроком из-за высокого уровня абстракции (1) и невозможности перебора всех доступных вариантов развития событий — точное число допустимых комбинаций в игре на стандартном гобане больше, чем число атомов в наблюдаемой Вселенной. С поражением Ли Седоля не осталось игр с открытой информацией, в которых компьютер не мог бы обыграть человека.

Еще в 2006-м Джонатан Шеффер назвал следующее воплощение «однозначно человеческих способностей», проблемой освоения которых должны заняться компьютерные программы в ближайшем будущем. Это покер. По мнению мэтра, покер в качестве испытательного стенда для изучения искусственного интеллекта гораздо богаче шахмат: в нём отсутствует полная информация о раскладах карт на руках, наличествует большое количество игроков за одним столом, раздача карт добавляет элемент случайности, допустима ложная информация (блеф), необходимо наблюдение над противником с целью корректировки тактики игры, наконец, налицо принципиальная неполнота информации, так как этапы игры могут завершаться без раскрытия карт, что затрудняет анализ.

Кто ответит за Го?

Россия традиционно считается страной математиков и шахматистов. Стоит вспомнить Михаила Ботвинника - чемпиона мира по шахматам, известного ученого, который в течение более 30 лет (начиная с 1958 года), разрабатывал первую программу «Пионер», для игры в шахматы, или победителя чемпионатов мира среди компьютерных программ отечественную «Каисса» (1972 год).

Сегодня в России, конечно нет таких мощных компьютеров, как в Китае или в США, но мозги то есть. И можно вполне ответственно говорить, что еще можно поспорить (аргументированно) с теми, кто говорит: «что теперь не осталось игр с открытой информацией, в которых компьютер не мог бы обыграть человека. Игры с открытой информацией - шашки, шахматы, нарды - предполагают, что соперникам полностью известна позиция и все варианты следующего хода.

Ответ 1. «Высокий уровень абстракции»

Аргумент такого типа, конечно важен. Однако, как определить уровень абстракции? Мне как программисту, не плохо бы понять, какие это математические объекты, какие это процессы (синхронные-асинхронные), какие это объемы данных и т.п. Раз это уровень абстракции то, в чем? В структуре алгоритма, или в языке описания? А может в это уровень организации данных, в виде семантической сети по Барабашу?

Если привязываться к алгоритмам игры, то очевидно, что под уровнем абстракции (и в шахматном и в алгоритме Го) понимается переход от локальных свойств позиции на поле к глобальным (стратегическим) оценкам позиции в целом. Отдельно надо добавить и глубину просмотра на ход.

А можно ли «измерить» количественно такой «уровень абстракции»? Во всем мире проводится большое число исследований на эту тему, достаточно сказать, что каждый день выходит сотни статей по Brain Research. Проблема в том, что нет такого человека (или ИИ), который бы все это читал и анализировал. Вывод – надо более качественно и количественно определить, что такое уровень абстрактного мышления, если мы хотим понять, каков он у компьютера и сравнить его с человеческим.

Ответ 2. «Число допустимых комбинаций в игре Го больше, чем число атомов в наблюдаемой Вселенной»

Тут трудно поспорить. Математик по имени Джон Тромп (John Tromp) вошел в историю своим расчетом числа допустимых комбинаций в игре Го. Правда, пока никто не смог проверить его расчеты.

А существует ли игра с открытыми правилами, в которой число допустимых комбинаций больше, чем в игре Го? Может быть это риторический вопрос, поскольку сложность алгоритма игры зависит не только от числа возможных комбинаций. Эффективность алгоритма можно оценить по результатам его работы. Если система технического зрения за 0,5 секунды идентифицирует походку человека в реальном времени из 100 идущих по улице пешеходов (последняя китайская разработка), то это не означает, что алгоритм перебирает все возможные походки 7 миллиардов человек на планете. Очевидно, он работает хитрее. Параметр сложности – число допустимых комбинаций в игре - это не самый важный фактор.

Ответ 3. «Не осталось игр с открытой информацией»

Это ключевой тезис, который нам легко оспорить. Действительно, в 1986 году, после исследований по моделированию экологических систем, нам пришла в голову простая идея. Описать процесс поведения элементов системы с помощью теории клеточных автоматов (многие программисты и ученые, наверное, помнят знаменитую компьютерную игру «Жизнь» Джона Конвея, основанную на этой теории). Мы сформулировали первые правила логической игры CTOR. На исследование вариантов правил и практику игры ушло много лет, в России играли около полумиллиона человек. Правила игры не предполагают использования случайного выбора и описывают классическую игру с открытыми правилами. Нам удалось написать первые простые алгоритмы для компьютера. Сегодня алгоритм справляется с начинающими игроками, но ему еще очень далеко до настоящего мастера. Читатель сам может оценить разницу в правилах. Если за сложность отдельного хода принять число изменений на поле игры, то есть в скольких клетках поля произошли изменения, то в шахматах этот показатель равен 2, в Го 1. В игре CTOR это величина колеблется от 1 до 20, в зависимости от варианта игры или уровня сложности правила хода. Не трудно посчитать, что число изменений на поле за один ход на порядок увеличивает число комбинаций каждого хода. Если в игре Го число комбинаций больше числа атомов во Вселенной, то в игре CTOR, число комбинаций больше, чем в 10-ти вселенных. Попробуйте опровергнуть это тезис.

Принципы игры подробно описаны в журнале PC Week Russian Edition

Кого теперь должен победить ИИ?

Многие говорят о том, что игры типа Го с открытыми правилами и алгоритмы ИИ для таких игр – это не реальные условия для решения задач. Это верно в применении к существующим играм. Мы создали игру, которая имеет открытые правила, но реальные модели поведения, чтобы алгоритмы ИИ были ближе к реальности. В модели игры CTOR каждой фишке можно приписать разные свойства, в том числе и время жизни фишки, то есть «оживить» фишку. Совершенно новые возможности для исследователей ИИ представляют такие свойства правил игры, как возможность моделировать разные типы мышления от логического до интуитивного, при этом контролируя количественно сложность игры.

Мы уверены, что еще не все возможности игр с открытыми правилами исчерпаны. Мы будем развивать самую мощную на сегодня логическую игру с открытой информацией - CTOR.

img

Более подробно о возможностях игры CTOR в лекции на TEDx.

Можно также посмотреть три коротких фильма о проведении занятий в канадских школах, по курсу «Коллективное мышление» Collective CTOR GAME.

По моей оценке минимум 30 лет необходимо на разработку ИИ, чтобы победил чемпиона мира по игре CTOR. Мы успеем еще провести 10 чемпионатов мира (если это делать, раз в 3 года), пока такой алгоритм будет создан . А попутно, при разработке алгоритма, придется решать большое число, как научных, так практических задач. Не исключено, что кто-то из моих читателей, уже готов сразиться за звание чемпиона мира от своей страницы? Тогда заполните форму на сайте (по-русски), и я обязательно с вами свяжусь.

Всем удачи. Искусственный интеллект нас не победит!

Владимир Бронников,

PhD, CEO CTOR GAME Inc.

www.bronnikov.ca

Теги: искусственный интеллект , компьютерные игры

Еженедельник IT Weekly № 48/2017 (05.12)    [ PDF ]    [ Подписка на журнал ]

Компания: IBM, Google


Поделиться:

ВКонтакт Facebook Google Plus Одноклассники Twitter Livejournal Liveinternet Mail.Ru

Другие материалы рубрики

Также смотрите

Еженедельник IT Weekly: № 48/2017 (05.12)

Последние новости

Фоторепортажи

Мероприятия

<<<< Декабрь >>>>
Пн Вт Ср Чт Пт Сб Вс
27282930123
45678910
11121314151617
18192021222324
25262728293031
1234567