Александр Соколов. Сергей, спасибо. Следующий вопрос, который будет адресован Татьяне, будет задавать система искусственного интеллекта GPT-3. Я попрошу сейчас включить систему искусственного интеллекта.

Система ИИ GPT-3. Насколько необходима или желательна разработка искусственного интеллекта, предназначенного исключительно для боевых действий?

Татьяна Шаврина. Есть большое опасение, что когда мы достигнем уже определенных успехов в моделировании более простых задач, про это узнают военные и захотят делать манхэттенский проект с искусственным интеллектом. Если бы он существовал уже сейчас, мы бы что-то про это как-то узнали. Вроде бы, не существует.

Александр Соколов. Скрывают.

Татьяна Шаврина. Видите, уже сам искусственный интеллект интересуется, уже опасно.

Источник: https://interesnyefakty.org/innokentij-smoktunovskij

Александр Соколов. Сейчас будет второй вопрос от искусственного интеллекта в образе Иннокентия Смоктуновского.

Система ИИ GPT-3. Сможет ли искусственный интеллект корректно воспринимать и оценивать степень опасности людей?

Александр Соколов. Вопрос к Сергею.

Сергей Марков. Это очень хороший вопрос. Он позволяет немножко отойти от нашей антропоцентрической позиции. Мы очень часто предъявляем определенные требования к системам искусственного интеллекта. Встает большой вопрос: насколько мы сами соответствуем тем требованиям, которые предъявляются? Когда некоторые алармисты говорят о возможной опасности поручения системам искусственного интеллекта контроля над сложными процессами и технологиями, при этом считается, что оставить контроль над этими технологиями за человеком – это безопасно. По мере технологического прогресса себестоимость апокалипсиса стремительно падает. Я думаю, что здесь вопрос с подвохом. Важно понимать, что в определенной ситуации люди сами не соответствуют тем высоким требованиям, которые мы предъявляем к тестируемым нами системам. Автопилот в автомобиле мы можем исследовать, заставив его накатать миллионы километров вначале в виртуальной среде, потом в ходе каких-то тестов. Когда мы садимся в такси, то мы предварительно не подвергали водителя столь же жесткому контролю, масштабному испытанию. Почему человек доверяет другому человеку, которого он видит первый раз, и не доверяет системам, которые были созданы в результате прямого инжиниринга и многократно протестированы в специальных экспериментах?

Александр Соколов. Спасибо, Сергей. Сейчас вопрос от нашего постоянного зрителя «Пирожка с ковидлом»: насколько реально воспроизвести творческие способности, используя генератор случайных чисел и последующий анализ результатов? Татьяна, что вы скажете?

Татьяна Шаврина. Не знаю, при чем тут генератор случайных чисел. Мне нравится в задачах искусственного интеллекта то, что они ставят перед нами такие задачи, которые нам позволяют не только что-то построить, но и узнать чуть больше про себя. В этом плане задача искусства очень интересная. Это насущный вопрос задач эволюционной психологии. Что вообще человеку кажется красивым? Чтобы формулизовать то, что нам кажется красивым, надо поставить много экспериментов и выяснить. Тогда машина сможет это как-то воспроизводить. Сейчас у нас есть уже системы, которые могут генерировать картины, музыку. Это кажется достаточно симпатичным. Сказать, что это творчество, наверное, в какой-то момент можно будет, если там будет действительно целеполагание. Если мы научимся осмысленно нарушать канон и при этом считать, что это все равно красиво. Тогда сможем.

Александр Соколов. Спасибо. Вопрос Дениса из Москвы, адресованный Сергею: в какую сторону смотреть разработчику, который хочет научиться программно работать с человеческой речью?

Источник: https://online47.ru/2019/11/22

Сергей Марков. Последние несколько лет, даже десятилетий большой прогресс в этой области связан с развитием нейросетевых моделей. Я бы посоветовал читать отдельные научные публикации. Можно зайти на сайт paperswithcode.com. По каждой интересующей вас задаче (распознавание речи, синтез речи), там есть лидерборды. Можно посмотреть лучшее решение, которое существует в этой области. Обычно там есть научная статья создателей этой системы, можно ее почитать и узнать о тех алгоритмах, нейросетевых архитектурах, которые лежат в основе этой системы. Еще в большинстве случаев можно посмотреть реальные примеры реализации в виде кода на GitHub.com. Наверное, сегодня это самый правильный способ изучения передового края технологии. Систематическая литература, книги не успевают за той скоростью прогресса, которую мы наблюдаем. Если вы почитаете книгу даже хороших авторов, она будет в какой-то мере вам рассказывать о состоянии технологий 2-3-летней давности.

Александр Соколов. Спасибо. Вопрос для Татьяны от Юрия Феденева из Москвы: как вы считаете, существует ли возможность использовать искусственный интеллект в управлении или частичном управлении опасным производством – АЭС, ГЭС и так далее? Высока вероятность человеческого фактора при выполнении операций.

Татьяна Шаврина. Я думаю, что это очень хорошее направление для автоматизации труда. Как раз это можно свести к задаче оптимизации. Сейчас современные системы искусственного интеллекта используются на опасных производствах и не только на опасных, чтобы предсказывать износ оборудования. Это сейчас предсказывается очень хорошо и снижает аварийность.

Александр Соколов. Спасибо. Вопрос для Татьяны от Латы из Нижнего Новгорода: для работы с человеком обязательно ли внедрять ИИ человеческие эмоции для комфорта работы с ИИ?

Татьяна Шаврина. Это интересный вопрос. Мне кажется, что он как раз очень плотно связан с тем, что мы считаем хорошим решением, а что – не очень от ИИ. Когда мы говорим о том, что мы будем внедрять искусственный интеллект в управление проектами, в автоматизацию решений, в госуправление, то мы уже ждем, что мы будем получать ответы, не просто которые будут нас устраивать по качеству, но и которые мы будем понимать. Эмоциональная составляющая здесь участвует, она способствует этому пониманию. Эмоциональную составляющую включить можно уже сейчас, это не является технологической преградой. Технологической преградой является нормальное обоснование решений. Здесь прогресс запаздывает. Может быть, он опоздает очень сильно.

Источник: https://hi-news.ru/technolog

Даже если мы сможем обучать модели, принимающие самые мультимодальные данные (картинки, видео, текст), и обрабатывающие их, даже если будет среда, в которой модель будет обучаться и понимать, что лучше, что хуже, она все равно не научится нам это передавать. Сейчас запаздывают системы интерпретации результатов. Мы можем из сетки как-то получить, что она увидела корреляцию. Иногда нужно сделать очень много шагов, чтобы понять, что эта корреляция была ложная. Модуля перепроверки этих данных нет.

Мы знаем эту фундаментальную проблему – корреляция не означает причинно-следственную связь. Уровень преступности в Нью-Йорке коррелирует с потреблением мороженого в Нью-Йорке. Долго думали, почему. Просто оба фактора коррелируют еще со средней температурой. Летом повышается и уровень преступности, и уровень потребления мороженого. Это все у нас сохраняется в искусственном интеллекте. Он даже может вынести решение, как-то даже его перепроверить. Потом мы спросим: почему? А у нас модуль логики не подключен к модулю языка, мы не можем сказать.

Александр Соколов. В этом случае две функции не являются независимыми, поэтому корреляцию строить неправильно между ними.

Татьяна Шаврина. Это как мы запрограммируем.

Александр Соколов. Вопрос от Александра Багмы: как вы считаете, возможно ли построение сильного ИИ, как мультиагентной системы? Используются ли идеи, изложенные Марвином Ли Минским в таких книгах, как «Сообщество разума» и «Машина эмоций» в неакадемических поректах? Я не читал этих книг. Сергей, вы читали?

Источник: https://m.readly.ru/author/5883/

Сергей Марков. Да, конечно. Марвин Ли Минский – это один из классиков искусственного интеллекта, довольно интересным образом повлиявший на развитие коннекционизма, нейронных сетей. С одной стороны, он был одним из пионеров этого направления. 

Еще в начале пятидесятых годов он создал первую систему, управляемую искусственной нейронной сетью. С другой стороны, считается, что он внес свой вклад в критику работ Фрэнка Розенблатта. В какой-то мере это повлияло на наступление зимы искусственного интеллекта в семидесятые годы. Сейчас активно изучаются различные мультиагентные системы. Такая большая сфера машинообучения, как обучение с подкреплением, является бурноразвивающимся направлением.

Есть место и мультиагентным системам. Создание систем универсального искусственного интеллекта, режимы их обучения вполне себе могут быть связаны с таким обучением мультиагентных средах. Мы коротко затронули проблему сознания, будет оно или не будет у систем искусственного интеллекта. Моя научная позиция заключается в том, что сознание в какой-то мере является продуктом как раз мультиагентных взаимодействий. Появление эусоциальности привело к необходимости появления модели другого для того, чтобы прогнозировать поведение других агентов. Дальше эта модель была применена к самому субъекту. Появилась галерея зеркал отражения человеческим сознанием себя самого. Это направление активно развивается, является одним из мейнстримов в области работы над универсальным искусственным интеллектом.

Александр Соколов. Спасибо. Вопрос от Андрея Савченко: в далеком будущем научному сообществу удалось создать сопоставимый с человеческим ИИ. На его основе создаются автономные роботы для решения различных задач. Как вы думаете, будут ли достаточны по своей сути три закона робототехники в качестве основного защитного механизма в подобных системах? Если нет, то что бы предложили вы, Татьяна?

Татьяна Шаврина. Я думаю, что тут Сергей даже лучше меня прокомментирует. Мне кажется, что рассуждая о таком далеком будущем, скорее всего, у нас будет какой-то другой способ инкорпорировать необходимые нам знания в искусственный интеллект. Необязательно будут просто строгие запреты и правила робототехники. Возможно, что это все равно останется. Мы сейчас разговариваем про искусственный интеллект, но обычно в индустрии очень часто все задачи решаются очень просто: написали пару правил и сказали, что у нас уже искусственный интеллект используется. Возможно, это тоже останется.

Александр Соколов. Что добавите, Сергей?

Сергей Марков. Все творчество Айзека Азимова посвящено тому, что трех законов робототехники недостаточно. Возникает множество парадоксов при использовании такой простой системы. Я думаю, что здесь системы и правила примерно так же годны к решению этой задачи, как Уголовный кодекс подходит для того, чтобы контролировать поведение людей. Это в принципе работает, но есть нюансы. Есть ситуации, когда оказывается, что даже такого сложного поведенческого кодекса недостаточно для того, чтобы здесь решить все проблемы. 

Источник: https://brodude.ru/robot-kotoryj-vozmet-gryaznuyu-rabotu-na-sebya

Я думаю, что здесь направление развития будет связано с тем, что вряд ли мы будем так массово создавать универсальные системы искусственного интеллекта. Я думаю, что человечество пойдет по пути интеграции своего собственного интеллекта с продуктами своих технологий. Искусственный интеллект будущего – это мы сами, просто усовершенствованные, дополненные. Это создаст проблемы немножко другого класса, не те игрушечные проблемы, про которые приятно писать интеллектуальную фантастику, а проблемы совершенно другого уровня, которые на нынешнем уровне развития мы не можем в полной мере постичь.

Александр Соколов. Коллеги, время вопросов подошло к концу. Сейчас очень интересно посмотреть, как поменялось мнение аудитории. Я сейчас запущу то же голосование. Еще раз, пожалуйста, дорогие зрители, проголосуйте: когда, по-вашему, будет создана система искусственного интеллекта, равная человеческому интеллекту?

  1. скоро;
  2. в обозримом будущем;
  3. в далеком будущем;
  4. никогда:
  5. уже создана.

Пожалуйста, перейдите по ссылке, проголосуйте еще раз. А пока зрители голосуют, я хочу попросить Татьяну подвести итог сегодняшней дискуссии. Что вы для себя вынесли? Изменилось ли ваше мнение?

Татьяна Шаврина. Тут не стоит вопрос о необходимости прекращения нашей деятельности. Методология в любом случае нам нужна. Методология должна разрабатываться, должна быть максимально строгой и максимально объективной. Чтобы делать строгую методологию, нам надо задавать больше вопросов, связанных со смежными областями: нейронаукой, эволюционной психологией, задачами оптимизации. Надо ставить больше экспериментов с новыми мощностями. В любом случае, мы больше узнаем про себя. Мне кажется, что это очень здорово.

Александр Соколов. Спасибо, Татьяна. Сергей, теперь прошу вас подвести итог дискуссии. А ваше мнение изменилось хотя бы отчасти? Что-то полезное вы узнали сегодня?

Сергей Марков. Да. Я хотел бы поблагодарить Татьяну за очень продуктивную и конструктивную дискуссию. Конечно, мы меняемся. Обсуждая такие вопросы с интеллектуальным оппонентом, ты всегда узнаешь что-то новое и в какой-то мере корректируешь свою позицию. Она вряд ли поменялась радикально. Но я думаю, что разница между нашими позициями не так велика, как может показаться со стороны. В любом случае это было очень полезно и в какой-то мере будет оказывать влияние на мою дальнейшую работу.

Александр Соколов. Наши зрители еще голосуют. Я пока попрошу участников сегодняшних дебатов выбрать авторов лучших вопросов. У меня две книжки: «Человеческие сети» издательства «Корпус» и «Как быть человеком в эпоху машин». Я попрошу сначала Сергея, а потом Татьяну выбрать авторов. Сейчас я перечислю, какие были вопросы: про творческие способности и генератор случайных чисел; про то, куда смотреть разработчику, который хочет работать с человеческой речью; про автоматизацию управления АЭС; про внедрение эмоций для комфорта работы с ИИ; про идеи Марвина Ли Минского; про три закона робототехники для могучих роботов в далеком будущем. Сергей, ваш выбор.

Сергей Марков. Вопрос про Марвина Ли Минского мне больше всего понравился. Хотя все вопросы были безусловно интересны. Трудно выбирать.

Александр Соколов. Книга «Человеческие сети» уходит Александру Багме. Татьяна, ваш выбор.

Татьяна Шаврина. Жалко, что мы не можем искусственному интеллекту тоже ничего дать, он вопросы тоже задавал.

Александр Соколов. Почему не можете? Сергей является разработчиком.

Сергей Марков. Я не открою большого секрета, если скажу, что Татьяна тоже является одним из разработчиков этой системы, только со стороны своего подразделения. Боюсь, нам придется книжку делить пополам.

Александр Соколов. Загрузить текст этой книги, присовокупить к базе текстов.

Татьяна Шаврина. Оцифруем и загрузим. Я думаю, что Сергей так или иначе получит книгу, потому что он спикер. Давайте отдадим вопросу про искусство.

Александр Соколов. Этот вопрос задавал «Пирожок с ковидлом». Наш постоянный зритель получает книгу «Как быть человеком в эпоху машин». Сейчас я попрошу коллег посмотреть результаты голосований и сравнить, как голосовали зрители в начале и в конце. Сначала большинство проголосовало за вариант «в обозримом будущем», на втором месте вариант «в далеком будущем». Интересно получается, что в ходе дебатов часть голосовавших за обозримое будущее проголосовали за далекое будущее.

Источник: https://www.youtube.com/watch?v=sC–NGQxToM

Татьяна, ваша скептическая позиция убедила некую часть зрителей стать более осторожными в своих оценках. Это здорово. Мы в очередной раз видим, как меняется мнение зрителей в результате нашей работы. Я благодарю вас, дорогие друзья, благодарю Сергея, благодарю Татьяну. Сергей тоже без приза не останется. Замечательная левитирующая пирамидка от проекта @levilogo.ru отправится к Сергею. Татьяна получает замечательного пингвинопитека-мыслителя от Павла Красного и замечательные деревянные подставки для смартфонов от проекта gen.ru.

Участникам дебатов я хочу сказать, что у меня есть мечта, чтобы мы через несколько лет провели дебаты, в которых один из участников был бы системой искусственного интеллекта. Вдруг это получится. По крайней мере, чтобы искусственный интеллект был модератором, который следил бы за тем, чтобы дискуссия шла по правилам корректной научной дискуссии, как принято на форуме «Ученые против мифов». Призом бы в этих дебатах была бы книга Сергея Маркова, которую, я надеюсь, он напишет и издаст очень скоро. Спасибо.

“Ах, обмануть меня нетрудно! Я сам обманываться рад!» Поэт сказал это о любви, но любовь бывает разной. Например, любовь к инопланетянам.

Что есть человек? Взгляд биолога – Станислав Дробышевский.

Что есть человек? Взгляд биолога – Станислав Дробышевский.

Сегодня я расскажу о том, что есть человек. Довольно регулярно возникает вопрос: когда человек стал человеком и чем человек отличается от нечеловека? Ответ на этот вопрос зависит от того, что считать человеком. Определение может быть разное. Можно это понятие...

Что есть человек? Взгляд биолога – Станислав Дробышевский. Часть 2.

Что есть человек? Взгляд биолога – Станислав Дробышевский. Часть 2.

Источник: https://www.youtube.com/watch?v=0YQQ8sZeN9c Стопа у проконсула и шимпанзе хватательная, большой палец противопоставлен остальным. У ардипитека большой палец так же противопоставлен, но есть продольный и поперечный своды стопы. Некоторое время у...

Станислав Дробышевский. Жизнь простеца и хитреца (15.09.2018, Тольятти)

Станислав Дробышевский. Жизнь простеца и хитреца (15.09.2018, Тольятти)

Игорь Власенко. Здравствуйте. Всех очень рад видеть. Большое спасибо, что вы сегодня с нами. Я надеюсь, что сегодняшний вечер пройдет не только интересно, но еще и плодотворно с точки зрения появления каких-то размышлений, новых знаний, мыслей и так далее. Сегодняшний...

Станислав Дробышевский. Жизнь простеца и хитреца (15.09.2018, Тольятти). Часть 2.

Станислав Дробышевский. Жизнь простеца и хитреца (15.09.2018, Тольятти). Часть 2.

Еще одно подобное явление - перелом скуловой дуги, который тоже характерен для среднерусского населения именно тех районов, где бытовали кулачные бои, стенка на стенку. При классическом ударе скуловая кость ломается, скорее даже скуловой отросток височной кости, и...

Станислав Дробышевский. Жизнь простеца и хитреца (15.09.2018, Тольятти). Часть 3.

Станислав Дробышевский. Жизнь простеца и хитреца (15.09.2018, Тольятти). Часть 3.

Из летописи тоже известно, что он был не сдержан, на всех орал, всех строил, пинал ногами, гонял. Как князь он имел такую возможность. Народу и ближайшему окружению это иногда не нравилось. В итоге против Андрея Боголюбского был создан заговор его ближайшим...

Станислав Дробышевский. Жизнь простеца и хитреца (15.09.2018, Тольятти). Часть 4.

Станислав Дробышевский. Жизнь простеца и хитреца (15.09.2018, Тольятти). Часть 4.

Есть такие профессии, которые потенциально должны отражаться, но мы этого толком не знаем. Если вы готовы себя отдать науке... Слушатель. Я альтистка, а не скрипачка. Станислав Дробышевский. Можно синдром альтиста описать. Я не знаю, в чем он выражается. Слушатель. Мы...

Станислав Дробышевский. Древние люди юга России – от умелого до разумного.

Станислав Дробышевский. Древние люди юга России – от умелого до разумного.

Сегодня я расскажу вам обзорную историю про древних людей на Юге России. Делить территорию по современным политическим границам - это немного странно, когда речь идет о древности. Тогда таких границ не было. Местами у меня будут освещаться территории не только России,...

Станислав Дробышевский. Древние люди юга России – от умелого до разумного. Часть 2.

Станислав Дробышевский. Древние люди юга России – от умелого до разумного. Часть 2.

Мы подходим к вымиранию неандертальцев, их исчезновению. Самые последние прятались где-то по углам тогдашней Ойкумены. Может показаться, что это не край, а центр Европы. В тот момент весь Север Европы был занят ледником, там жизни не было в принципе никакой. В это же...

Станислав Дробышевский – Мифы о мозге.

Станислав Дробышевский – Мифы о мозге.

Как вы легко можете догадаться по первому слайду, эта лекция уже не новая. Впервые она читалась на шестом форуме «Ученые против мифов», в октябре будет еще один - уже одиннадцатый. Все туда тоже приходите и записывайтесь. На форуме «Ученые против мифов» у меня было...

Станислав Дробышевский — Мифы о мозге. Часть 2.

Станислав Дробышевский — Мифы о мозге. Часть 2.

Ближе к нам по времени, 30 млн лет назад, в Северной Африке жили парапитеки, египтопитеки. У парапитеков масса мозга составляла 11 г, у египтопитеков - 14,6-27 г. Это очень немного, как у дикого кролика. Насколько интеллектуален кролик с 17 г мозга? А у него мозг...