Голос за кадром.
«Перстам придал послушную сухую беглость
И верность уху. Звуки умертвив,
Музыку я разъел, как труп.
Поверил я алгеброй гармонию.»

Сможет ли человечество дерзнуть и когда-нибудь поверить алгеброй неповторимую жемчужину природы – человеческий интеллект? Поверить и превзойти. Дебаты «Убеди скептика».

Александр Соколов. Наверное, споры об интеллектуальных возможностях ЭВМ ведутся с момента появления самых первых компьютеров. Я хорошо помню свои ощущения, когда в 1997 году Deep Blue обыграл чемпиона мира по шахматам – Гарри Каспарова. Спустя 19 лет в 2016 году программа AlphaGo обыграла чемпиона мира по игре в го, которая считалась гораздо более сложной игрой для моделирования на компьютере, чем шахматы. Совсем недавно команда под руководством одного из сегодняшних участников дебатов научила говорить по-русски программу GPT-3. Это программа пишет тексты, которые весьма непросто отличить от текстов, написанных человеком. Вчера GPT-3 сообщила мне о том, что академия ВРАЛ будет обсуждать вопрос об установке на Красной площади памятника Альберту Эйнштейну. И все-таки каждый раз раздаются скептические голоса о том, что это имитация, настоящий человеческий интеллект – это другое, люди всегда способны на то, что никаким компьютерам и не снилось. Так все-таки, возможно ли создать систему искусственного интеллекта, равную по возможностям человеку?

Я надеюсь на то, что сегодня будут жаркие дебаты на эту тему. Но сначала опрос. Друзья, давайте проголосуем: когда будет создана система ИИ (искусственного интеллекта), равная человеческому интеллекту? Пожалуйста, выберите вариант:

  1. очень скоро;
  2. обозримом будущем;
  3. в далеком будущем;
  4. никогда;
  5. уже создана, но «ученые скрывают».

Перейдите, пожалуйста по ссылке и проголосуйте. А я представлю наших сегодняшних участников дискуссии. В левом углу виртуального ринга дистанционно – Сергей Марков.

Источник: https://www.youtube.com/watch?v=sC–NGQxToM

Голос за кадром. Сергей Марков – разработчик систем искусственного интеллекта и машинного обучения, создатель портала «XX2 век», управляющий директор в департаменте СберДевайс.

Александр Соколов. В скептическом углу нашего виртуального ринга – Татьяна Шаврина.

Голос за кадром. Татьяна Шаврина – лидер команды исследования в области языка и общего искусственного интеллекта Сбербанка, один из авторов Russian SuperGLUE – набора тестов для потенциально сильного искусственного интеллекта, аспирант «Высшей школы экономики».

Александр Соколов. Сергей, слышите ли вы меня?

Сергей Марков. Да, слышу.

Александр Соколов. Отлично. Дебаты сейчас начнутся. Зрителей призываю писать вопросы в чат. Я прошу Сергея кратко изложить свою позицию. У вас 5 минут. Время пошло.

Сергей Марков. Добрый вечер, дорогие друзья, участники форума. Сегодня я выступаю в позиции оптимиста, человека, который считает, что для науки нет никаких препятствий, чтобы рано или поздно создать систему искусственного интеллекта, которая сможет сравниться с интеллектом человеческим. Моя позиция основана на том, что не существует никаких фундаментальных запретов, которые бы помешали рано или поздно нам создать систему искусственного интеллекта, которая сравняется с человеческим интеллектом или даже превзойдет его. Но в истории науки постоянно существует противоборство между учеными, которые пытаются решить ту или иную научную задачу, и скептиками, которые говорят, что решение этой задачи в принципе невозможно. Несколько сот лет назад спор велся о том, можно ли создать органические молекулы из неорганики, или между органическим и неорганическим миром лежит какая-то фундаментальная стена, которая не позволяет решить эту проблему. В свое время, когда появились первые пассажирские поезда, скептики утверждали, что движение с такой скоростью невозможно или слишком опасно для человека, что человек, который сидит в вагоне поезда, сойдет с ума от того, с какой скоростью мимо него будет проноситься окружающий пейзаж. На заре появления искусственного интеллекта существовало заблуждения о том, что программисты не могут создавать шахматные программы, которые будут играть в шахматы лучше них самих. Но мы знаем, что это не так. Сегодня шахматные программы играют гораздо сильнее любого человека и тем более программиста, который занимается созданием таких программ. Развитие технологий искусственного интеллекта и машинного обучения в последние годы происходит достаточно стремительными темпами. При этом существует определенный вектор на универсализацию такого рода решений. Если мы проследим за эволюцией систем, создаваемых для игры в го, то первая система, которая играла с Ли Седолем, называлась AlphaGo, училась использовать человеческий опыт, умела играть только в го.

Затем появилась система AlphaZero, которая училась играть в го с нуля без привлечения человеческих знаний об этой игре. Затем появилась программа AlphaZero, которая умела играть уже не только в го, но умела учиться играть сразу в несколько игр: сеги, шахматы, го. Последняя система называется MuZero. Она может учиться играть в игры, не зная их правил, постигая их в процессе обучения. Прогресс в области обработки естественного языка привел к появлению таких генеративных моделей как GPT-2, GPT-3, которые могут решать широкий спектр задач обработки естественного языка. Они уже не так специализированы, как те модели машинного обучения, которые мы создавали раньше. Наблюдается технологический вектор от развития прикладных систем искусственного интеллекта, который уже сегодня превосходит человека в решении отдельных интеллектуальных задач, к созданию универсальных системы интеллекта, которые не будут уступать человеку ни в чем. Вот моя позиция в кратком изложении. Пожалуй, на этом я пока остановлюсь.

Александр Соколов. Спасибо, Сергей. Я полагаю, что Татьяна не со всем прозвучавшим согласна. Татьяна, теперь у вас есть 5 минут, чтобы аргументированно возразить.

Источник: https://www.youtube.com/watch?v=sC–NGQxToM

Татьяна Шаврина. Спасибо, коллеги. Я сегодня представляю позицию скептика. Наша исследовательская группа разрабатывает методологию оценки интеллектуальных систем. Сравнение интеллектуальных систем, как естественных, так и искусственных, является вполне себе научной задачей. Мы не можем поставить рыбку, кошечку, человека, робота и сказать «мы вас будем оценивать в равных честных условиях по тому, как быстро вы залезете на дерево». Это так не работает. Эта задача требует методологической проработки, которой мы занимаемся. Мы, как вредные преподы, которые всех хотят отправить на пересдачу, постоянно тестируем новейшие системы искусственного интеллекта. Списал, зазубрил, но ничего не понял – встретимся через полгода. Я бы хотела разделить здесь два момента.

Сейчас говорят про сильный и слабый искусственный интеллект, понимая под слабым системы, которые уже сейчас достаточно хорошо, иногда даже лучше, чем человек, решают конкретную задачу. При этом наши ожидания относительно того, что такое большой и сильный искусственный интеллект, постоянно растут. Я буду сегодня говорить про сильный искусственный интеллект, от которого требуется целеполагание, принятие решений в условиях неопределенности, приобретение новых навыков, самообучение и так далее. Моя позиция заключается в том, что мы сейчас находимся в той степи нашего развития, когда мы не можем спрогнозировать, сколько времени еще потребуется, чтобы создать сильный искусственный интеллект. Может быть, и никогда. Это связано с несколькими тезисами, которые у меня есть. Они из разных областей науки, но сильно препятствуют нам в обсуждении гипотетической возможности создания такого искусственного интеллекта.

Во-первых, наше восприятие интеллекта и задач, которые мы ставим перед ИИ системами, все время меняется. Есть даже такое понятие, как эффект ИИ: как только какая-то задача начинает решаться машиной, мы перестаем ее считать интеллектуальной. Если я выиграю чемпионат по шахматам, я про себя буду думать, что я – молодец. Если машина выигрывает чемпионат по шахматам, никто не удивляется уже сейчас в 2020 году, для всех это абсолютно логично. Наш уровень ожиданий постоянно растет. Мы уже хотим не решения отдельных задач, а именно самообучения и приобретения новых навыков. Такое определение искусственного интеллекта очень популярно. Многие теоретики его придерживаются, например, Франсуа Шолле – создатель библиотеки Keras. Популярна точка зрения о том, что сильный искусственный интеллект должен уметь сам приобретать новые навыки, делать обобщение настолько сильное, что должен уметь самообучаться. Здесь мы входим на такую же скользкую дорожку, когда мы моделируем отдельные навыки, но никак не моделируем систему, которая должна их оркестрировать.

При этом, если мы посмотрим на существующий рабочий прототип, человеческий мозг, мы знаем, что там огромное количество систем специального назначения, которые развивались эволюционно. У них есть эволюционная задача, они влияли друг на друга. У нас есть проблема самосознания, у нас сознание оркестрирует всеми этими системами. Мы хотим, не делая сознание, получить такой же результат. Возможно, это будет проблематично сделать. Машина не выучивает причинно-наследственные связи. Хочу еще здесь сказать, что бионика, как направление изучения человеческого мозга для создания искусственного интеллекта, не является строго обязательной, но она поможет. Сейчас мы хотим построить самолет, но не понимаем, как работает крыло. Нам не обязательно строить самолет, который будет махать крыльями, но понимать, как это работает, мы должны. Мы еще знаем слишком мало. Мой финальный тезис – даже если мы сможем построить что-то подобное, сможем дойти до той стадии, когда у нас есть уже такие вычислительные мощности и столько накопленных данных, что мы можем это все смоделировать, смоделировать работу мозга, как тогда оцифровать человеческий опыт? Это тоже большая проблема. Оцифровать нашу реальность очень сложно. Объективно это сделать проблематично. Спасибо.

Источник: http://iteach.vspu.ru/07-2019/19583/

Александр Соколов. Спасибо, Татьяна. Сейчас вам предстоит задавать вопросы. Мы переходим к части прений. В течение 15 минут вы можете задавать Сергею вопросы, а Сергей отвечать и адресовать вам встречные вопросы. Прошу. Давайте начнем. Ваш вопрос.

Татьяна Шаврина. Я начну со своего первого тезиса. Сергей, считаете ли вы, что восприятие интеллекта у нас антропоцентрично? Насколько сильно мы привязаны к человеку? Можем ли мы создать универсальный искусственный интеллект?

Сергей Марков. Спасибо за вопрос, Татьяна. Когда мы говорим об интеллекте, проблема заключается в том, что у нас есть один бесспорный пример интеллекта – интеллект человеческий. Дальше мы на основе этого одного примера пытаемся каким-то образом построить некое определение, которое должно включать или не включать в себя те или иные разновидности интеллекта. В этом смысле мы сейчас находимся в ситуации, которая напоминает ситуацию, в которой оказывается человек, которому нужно провести прямую по одной точке. Сделать это можно бесконечным количеством способов. В зависимости от того, какое определение интеллекта мы выберем, ответ на наш вопрос может оказаться очень разным.

В условиях нехватки альтернатив мы в известной степени вынуждены быть антропоцентричными. Именно поэтому в науки об искусственном интеллекте представление о том, каким образом мы можем оценить результат и утверждать или не утверждать, что мы наконец-то создали универсальную систему искусственного интеллекта, сильный искусственный интеллект, изначально решалось при помощи процедурного способа – теста Тьюринга. Мы будем сравнивать человеческий интеллект, бесспорный эталон интеллекта, с некоторой системой, которая демонстрирует нам нечто похожее на интеллект. 

Источник: https://www.youtube.com/watch?v=sC–NGQxToM

Если мы в ходе экспериментов не сможем достоверно различить то, что не создали с бесспорным эталоном, то мы будем обязаны признать за этой системой наличие у нее интеллекта. Эта идея очень старая. Еще Д.Дидро в свое время говорил, что, если он встретит попугая, который в высшей степени разумно будет отвечать на все наши вопросы, то мы будем обязаны признать за ним наличие у него интеллекта. Сходной позиции придерживались философы в тридцатые годы – Альфред Айер, затем Алан Тьюринг, который в тридцатые годы занимался проблемой эффективно вычислимости, а также пришел к операционистскому определению интеллекта.

Такая процедура нам позволяет избежать каких-то философских прений на тему того, что такое интеллект, на которые можно потратить много времени и сил. Это один из способов здесь избежать лишних усилий. Мы вынуждены быть антропоцентричными в этой ситуации. Я думаю, что ситуация изменится тогда, когда наконец-то появится серьезная альтернатива человеческому интеллекту.

Александр Соколов. Сергей, твой встречный вопрос.

Сергей Марков. Татьяна говорила о необходимости каким-то образом оркестрировать различные навыки, которые реализованы так или иначе в компонентах системы универсального искусственного интеллекта. Если вернуться к работам Тьюринга, пытаясь выяснить, что такое эффективно вычислимая задача, математики пришли к такой точке зрения, что все интеллектуальные феномены, все задачи можно свести к некой формальной системе, которая будет достаточно полна, чтобы при его помощи можно было описать вообще любой интеллектуальный процесс. Нам можно отмахнуться, абстрагироваться от того, что существует какой-то мир с его различными модальностями, действиями различных агентов в этом мире, свести все к задаче, как в GPT-3?

Давайте будем прогнозировать следующий токен в последовательности по предыдущим. Если мы посмотрим на человека, то человек тоже напоминает такую систему: он собирает тензор, информацию от своих органов чувств и генерирует тензор, который представляет собой набор мышечных реакций нашего тела. Если смотреть на это таким образом, то мы сможем избавиться от необходимо копаться в какой-то макроархитектуре такого решения? Пусть машина в ходе машинного обучения сама определит необходимую архитектуру, необходимые способы оркестрации навыков.

Александр Соколов. Вопрос понятен?

Татьяна Шаврина. Да, здесь много на что можно ответить. Я думаю, что с позицией Тьюринга сейчас можно много где не согласиться. Изначально предполагалось коннекционистами, что человеческий разум – tabula rasa: мы можем научиться чему-то новому и научить компьютер точно так же. Эта метафора «мозг как компьютер» сейчас нам методологически вредит. Мы знаем, что мозг – это не tabula rasa, у нас есть предрасположенности, эволюционные цели и механизмы, которые работают все вместе, которых нет у компьютера. Мы не можем их просто купить. У нас есть объем вычислительных мощностей, объем данных, который мы можем экстенсивно увеличивать и ждать, что рано или поздно у нас будет такая мощность и так много данных, что мы научимся оркестрировать все сами. Возможно, что это все-таки не так.

Фундаментально система устроена по-другому. У человека есть предрасположенность к решению одних задач и плохому решению других. Мой любимый пример – задача коммивояжера. Коммивояжеру нужно посетить заданный список городов, у него есть карта дорог между ними. Ему надо выбрать кратчайший путь. Есть очень много алгоритмов, которые позволяют достаточно быстро эту задачу решить компьютеру. С ней неплохо справляется человек, потому что это такая хорошая задача, решение которой полезно для человека. Если мы ее чуть-чуть переформулируем и зададим найди не кратчайший путь, а самый длинный, то для компьютера это будет такой же задачей. Для человека задача уже станет значительно тяжелее, с ней уже справиться гораздо труднее и по времени, и по усилиям. В этом плане считать человеческий интеллект эталоном, возможно, неправильно. Какие-то вещи мы еще не знаем про себя. Может быть, они влияют.

Если мы просто увеличиваем количество данных, объем корпусов текстов, которые являются хорошим источником, опосредованным следом человеческого мышления, который накоплен, научимся ли мы на нем делать какой-то обобщающий вывод, если их будет очень много? Возможно, нет. Смещение, когнитивные искажения, всевозможные паттерны, которые препятствуют человеку в принятии рационального мышления, заключены в этих данных. У нас нет системы перепроверки этого решения. Когда у нас есть аппетит такой, как он есть сейчас, что нам надо уже искусственный интеллект внедрять в медицину, в госуправление, цена ошибки становится высока. От нас требуют методологически обеспечить воспроизводимость, прозрачность этих решений. Мы не можем их обеспечить в такой парадигме. Нам нужен функционал, который скажет, почему было принято определенное решение.

Источник: https://utraining.ru/2019/11/11/kognitivnoe-iskazhenie

Александр Соколов. Сергей, есть что возразить?

Сергей Марков. Здесь затронута важная проблема метаобучения. Человеческий мозг – это продукт эволюционного процесса, который тоже является оптимизационным процессом так же, как процесс обучения отдельной модели. С одной стороны, это нашу задачу усложняет – нам нужно не только хорошо научиться решать задачу, но и научиться учиться решать задачу. У эволюции ушли миллионы лет масштабных условно вычислительных экспериментов для того, чтобы эту задачу решить. С другой стороны, эта сложность, которая перед нами возникает, внезапно может повлиять положительно на скорость решения этой задачи в рамках технологий. Дело в том, что все-таки человеческий разум – это продукт оптимизационного процесса, который не стремился сделать самый идеальный разум. Эволюция не ставила перед собой такой цели. На человеческий мозг эволюционно налагается целый ряд довольно неприятных ограничений. Например, мы совсем не хотим, чтобы от удара по лицу у нас полностью обнулялась память. Или другие какие-то эффекты. Большая голова плохо проходит через родовые пути, поэтому ребенок с большой головой вообще может не родиться, еще и убить мать.

Эволюция была не ориентирована на создание идеального интеллекта. С другой стороны, стремясь решить задачу совершенствования интеллекта, она была скована определенными фундаментальными ограничениями. В этом смысле более адресно, более точно организованный процесс метаобучения может позволить нам получить результаты гораздо быстрее и с меньшими затратами, чем это получилось у эволюции. Также здесь нам может в определенной степени помочь бионика. Нам не нужно начинать этот оптимизационный процесс с нуля. Мы можем подглядеть, каким образом устроены связи в человеческом мозге, какова архитектура биологической нейросети. Надо сказать, что за последние годы в этом направлении достигнуты достаточно серьезные прорывы, коннектомика наступает. Мы видим, как благодаря появлению технологий эффективного сканирования нервной ткани, созданных в институте Макса Планка, сейчас получены результаты уже для таких внушительных нервных систем, как нервная система мушки-дрозофилы, 1 мм3 мозга мыши удалось откартировать. В этом году уже появился целый ряд архитектур, вдохновленных данными нейрофизиологов. Мы можем взять какую-то нейрофизиологическая архитектуру нейронной сети в качестве некой стартовой точки для дальнейшей оптимизации. Возможно, это поможет нам задачу решить гораздо меньшей кровью, чем это получилось у эволюции.

Александр Соколов. Что скажете, Татьяна?

Татьяна Шаврина. Мне кажется, что мы сошлись на мнении о том, что все-таки нам нужно больше знать про мозг.

Александр Соколов. Вы не должны соглашаться, вы должны спорить.

Татьяна Шаврина. При том, что нам надо больше знать про то, как мозг устроен, и, может быть, все-таки можно это решать как задачу оптимизации, проблема лежит глубже. У нас проблема даже терминологическая, в нашей методологии заложено много проблем. Тест Тьюринга все еще годится, но у него есть фундаментальный минус – он включает субъективную оценку. Есть тесты, которые исключают фактор субъективности. Они говорят, что мы не доверим 33% людей решить, создали мы искусственный интеллект или не создали, нам нужно количественное сравнение. Такие тесты разрабатываются, но они все еще оперирует такими понятиями, которые мы не можем формулизовать.

Например, тесты на здравый смысл или тесты на предметное знание. Что такое, с точки зрения бионики, целеполагание, здравый смысл? Может быть, этого и нет, а мы этим пользуемся. Мы пытаемся это как-то формально определить, но это очень слабая сторона. Прежде чем обращаться к бионике, надо понять, что мы там хотим вообще найти. Те тесты, которые у нас есть сейчас, модели вроде GPT-3 их как-то проходят, не очень хорошо – где-то 60% качества, у человека – 80-90%. Эти тесты нам показывают, что то, что модели выучивают, во многом случайно, результаты нестабильны. Они зависят от случайных формулировок. Мы на одно и то же задание попросили сделать модель, чуть-чуть поменяли формулировку, и результат испортился. На наших тестах SuperGLUE мы использовали даже такие способы атаковать модели, когда мы много-много раз перефразируем одно и то же задание и смотрим, на сколько сохраняется качество ответов. Был даже такой момент, когда мы в конце каждого задания добавляли «и все получится», тогда качество вырастало на 2%. Оно не должно влиять, но влияет. Здесь у нас есть некоторая фундаментальная проблема – те данные, с которыми мы работаем, никак не сопоставляются с бионикой. Может быть, я ошибаюсь.

Источник: https://www.youtube.com/watch?v=sC–NGQxToM

Александр Соколов. Спасибо, Татьяна. Чтобы подлить масла в огонь, я попросил задать вам вопрос нашего эксперта – антрополога Станислава Дробышевского. Дайте, пожалуйста, Станиславу микрофон.

Станислав Дробышевский. С точки зрения биологов, есть обмен веществ – взаимодействие с окружающей средой. Его частный случай – поведение и интеллект. Все это складывается из миллионов взаимодействий, химических, молекулярных, термических, механических, фотонных. Для искусственного интеллекта у нас количество входов очень маленькое: либо мы туда бинарным способом забиваем текст, либо с помощью картинки. Как все многообразие воздействий вместить в искусственный интеллект, чтобы он стал нашим интеллектом?

Все знают про законы робототехники. Все мы боимся скайнета и терминатора. Я надeюсь, что создатели искусственного интеллекта про это знают, думают, помнят и в нужный момент это дело пропишут. Как прописать в интеллект скайнета и терминатора понятие «человек» и то, что человека нельзя убивать? Понятие «человека» у одного человека относительно другого – это и внешний вид, и запах, и пощупать и еще что-то такое. Если у человека какого-то входа нет, слепой может на ощупь или на слух воспринимать. Для компьютера какой-то один обычно вход, единственный. Для человека понятие «убить» очень широко, много туда всего входит с разных каналов. Как в компьютер это поместить? Это возможно?

Александр Соколов. Сергей ответит.

Сергей Марков. Спасибо за вопрос. На вопрос о множестве источников данных ответ дала нейрофизиология еще в конце XIX-начале XX века. Все многообразие явлений окружающего мира все-таки для человеческого мозга сводится к набору электрических сигналов. Это происходит благодаря существованию сенсорных клеток, которые могут преобразовывать и свет, и тепло, и различные другие раздражители в электрические сигналы. В этом смысле машины сделаны по нашему образу и подобию. Они также оснащены сенсорами, которые позволяют превратить различные виды сигналов из реального мира в цифровую информацию, которая затем попадает уже на вход наших моделей. Вопрос возможности оперировать какими-то абстракциями, вроде «человек» или «убийство», довольно интересный. Сейчас развивается такое интересное направление, как нейрофизиология искусственных нейронных сетей. Ученые, которые работают в этой области, изучают то, каким образом нейросетевые модели в процессе обучения формируют представление о тех или иных абстракций. Они делают это похожим образом на то, как это делают люди. 

Источник: https://quantpro.ru/archives/5233

Если вы посмотрите на сверточную нейронную сеть, то вы заметите, что в каких-то глубоких слоях свертки есть искусственные нейроны, которые реагируют на абстрактные понятия. Есть направление, которое занимается объяснимым искусственным интеллектом. Удастся выстроить определенное выравнивание между абстракциями человеческими и абстракциями, которые создает машина. Это тема для отдельного большого разговора, про объяснимый искусственный интеллект можно говорить долго. В целом все примерно устроено похожим на то, как в задаче коммивояжера. Когда у нас есть задача экстремально большой размерности, решить ее в лоб нельзя, но можно сделать топологическую агрегацию. Например, близко находящиеся на карте города считать одним регионом, вначале решить задачу для этих групп городов, потом решать задачу уже внутри групп. Разделяй и властвуй – так работает человеческий мозг, так работают коннекционистские модели вроде нейронных сетей. Это понятная проблематика, ученые ею активно занимаются.

Что есть человек? Взгляд биолога – Станислав Дробышевский.

Что есть человек? Взгляд биолога – Станислав Дробышевский.

Сегодня я расскажу о том, что есть человек. Довольно регулярно возникает вопрос: когда человек стал человеком и чем человек отличается от нечеловека? Ответ на этот вопрос зависит от того, что считать человеком. Определение может быть разное. Можно это понятие...

Что есть человек? Взгляд биолога – Станислав Дробышевский. Часть 2.

Что есть человек? Взгляд биолога – Станислав Дробышевский. Часть 2.

Источник: https://www.youtube.com/watch?v=0YQQ8sZeN9c Стопа у проконсула и шимпанзе хватательная, большой палец противопоставлен остальным. У ардипитека большой палец так же противопоставлен, но есть продольный и поперечный своды стопы. Некоторое время у...

Станислав Дробышевский. Жизнь простеца и хитреца (15.09.2018, Тольятти)

Станислав Дробышевский. Жизнь простеца и хитреца (15.09.2018, Тольятти)

Игорь Власенко. Здравствуйте. Всех очень рад видеть. Большое спасибо, что вы сегодня с нами. Я надеюсь, что сегодняшний вечер пройдет не только интересно, но еще и плодотворно с точки зрения появления каких-то размышлений, новых знаний, мыслей и так далее. Сегодняшний...

Станислав Дробышевский. Жизнь простеца и хитреца (15.09.2018, Тольятти). Часть 2.

Станислав Дробышевский. Жизнь простеца и хитреца (15.09.2018, Тольятти). Часть 2.

Еще одно подобное явление - перелом скуловой дуги, который тоже характерен для среднерусского населения именно тех районов, где бытовали кулачные бои, стенка на стенку. При классическом ударе скуловая кость ломается, скорее даже скуловой отросток височной кости, и...

Станислав Дробышевский. Жизнь простеца и хитреца (15.09.2018, Тольятти). Часть 3.

Станислав Дробышевский. Жизнь простеца и хитреца (15.09.2018, Тольятти). Часть 3.

Из летописи тоже известно, что он был не сдержан, на всех орал, всех строил, пинал ногами, гонял. Как князь он имел такую возможность. Народу и ближайшему окружению это иногда не нравилось. В итоге против Андрея Боголюбского был создан заговор его ближайшим...

Станислав Дробышевский. Жизнь простеца и хитреца (15.09.2018, Тольятти). Часть 4.

Станислав Дробышевский. Жизнь простеца и хитреца (15.09.2018, Тольятти). Часть 4.

Есть такие профессии, которые потенциально должны отражаться, но мы этого толком не знаем. Если вы готовы себя отдать науке... Слушатель. Я альтистка, а не скрипачка. Станислав Дробышевский. Можно синдром альтиста описать. Я не знаю, в чем он выражается. Слушатель. Мы...

Станислав Дробышевский. Древние люди юга России – от умелого до разумного.

Станислав Дробышевский. Древние люди юга России – от умелого до разумного.

Сегодня я расскажу вам обзорную историю про древних людей на Юге России. Делить территорию по современным политическим границам - это немного странно, когда речь идет о древности. Тогда таких границ не было. Местами у меня будут освещаться территории не только России,...

Станислав Дробышевский. Древние люди юга России – от умелого до разумного. Часть 2.

Станислав Дробышевский. Древние люди юга России – от умелого до разумного. Часть 2.

Мы подходим к вымиранию неандертальцев, их исчезновению. Самые последние прятались где-то по углам тогдашней Ойкумены. Может показаться, что это не край, а центр Европы. В тот момент весь Север Европы был занят ледником, там жизни не было в принципе никакой. В это же...

Станислав Дробышевский – Мифы о мозге.

Станислав Дробышевский – Мифы о мозге.

Как вы легко можете догадаться по первому слайду, эта лекция уже не новая. Впервые она читалась на шестом форуме «Ученые против мифов», в октябре будет еще один - уже одиннадцатый. Все туда тоже приходите и записывайтесь. На форуме «Ученые против мифов» у меня было...

Станислав Дробышевский — Мифы о мозге. Часть 2.

Станислав Дробышевский — Мифы о мозге. Часть 2.

Ближе к нам по времени, 30 млн лет назад, в Северной Африке жили парапитеки, египтопитеки. У парапитеков масса мозга составляла 11 г, у египтопитеков - 14,6-27 г. Это очень немного, как у дикого кролика. Насколько интеллектуален кролик с 17 г мозга? А у него мозг...