Когда-то о диалектической спирали развития в рамках диалектического материализма во всех вузах СССР толковали преподаватели марксистских наук. Термидор 1991 года – учиненный классом номенклатуры, лихо добавившим к власти еще и собственность – диамат из университетских программ изгнал. Преподаватели, защищавшиеся «на марксизме», правда остались… Остались и неназываемые классы (они в нынешних постсоветских странах как одно место из анекдота про Вовочку…). И диалектическая спираль развития тоже осталась.
И вот сейчас спираль развития любезно предлагает на своем очередном витке одну в высшей степени забавную и поучительную историю…
Много лет и много дней назад
жил в зеленой Франции аббат.
Ярослав Смеляков написал эти строки про аббата Прево, писателя. А веком раньше жил в Париже член францисканского ордена, аббат Марен Мерсенн (1588-1648). Этот выходец из крестьянской семьи, получивший – вместе с Декартом – образование в иезуитском колледже Ла-Флеш, с успехом заменял не существовавшую в то время Парижскую Академию наук. Изображение аббата месенна видел каждый. Читавший «Занимательную физику» Перельмана.
Именно Марен Мерсенн в сутане стоит возле пушки, намереваясь запустить из нее искуственный спутник Земли. Ну что ж, каждому веку свойственно переоценивать возможности доступных ему технологий. Но Мерсенн еще и изучал «числа Мерсенна» внося вклад в будущие криптографические технологии, переводил на французский «Механику» Галилея, редактировал «Основы» Евклида… С ним обменивались мыслями Гассенди, Гюйгенс, Торричелли, Ферма… И однажды в переписку с аббатом Меренном вступил четырнадцатилетний мальчик.
Звали парнишку Блез Паскаль (1623 – 1662). За свои тридцать девять лет он, несмотря на слабое здоровье, успел стать классиком французской литературы, оригинальным богословом, одним из основателей математического анализа, перспективной геометрии и теории вероятностей, создал счетную машину, принцип которой на столетия лег в основу всех арифмометров. На а века спустя швейцарец Никлаус Вирт дал имя Pascal компактному и хорошо структурированному языки, поныне используемому для обучения программированию.
А сейчас имя Pascal получила новейшая процессорная архитектура от NVIDIA – рекордные пятнадцать миллиардов транзисторов на кристалле! (Inside Pascal: NVIDIA’s Newest Computing Platform). Интересно, вспоминали ли разработчики Блеза Паскаля, или ограничились памятным со студенческих времен языком программирования… И с графическим процессором Tesla P100, выполненным на основе архитектуры Pascal, возникает тот же вопрос – назван ли он в честь гениального серба, или тут стремление воспользоваться успехом раскрученного электромобиля? Называли ж защищенные телефоны в честь внедорожников…
Задача этого графического процессора – дотянуть разрешение систем виртуальной реальности до уровня «ретины», до предела, который различает человеческий глаз. Именно это должна позволить производительность, превышающая двадцать терафлопс. Но самое интересное – дальше. Это – суперкомпьютер NVIDIA® DGX-1™. И вот он-то самое интересное в данной новости.
NVIDIA® DGX-1™ – первый «коробочный» суперкомпьютер, изначально ориентированный именно на задачи deep learning, глубокого обучения. Он состоит из восьми модулей Tesla P100 и имеет производительность 170 терафлопс. В одной коробке! Потребление энергии – больше, чем у кондиционера, но меньше, чем у приличного пылесоса с аквафильтром. Цена – 129 тысяч долларов, как у неплохого автомобиля. И вот это устройство позволяет увеличить скорость глубокого обучения в двенадцать раз по сравнению с образцами годичной давности.
Двенадцать раз, дюжина – побольше, чем обещал бы классический закон Мура. Там, где раньше нужны были сутки, теперь уйдет пара часов. То есть прирост на десятичный порядок скорости тренировки нейросети обеспечивает тот самый диалектический прыжок, переход из количества в качество.
Недели, требующиеся нейросети для тренировки, предопределяли решение нетривиальных задач в ручных режимах, обучать нейросеть слишком долго. Теперь же, когда на это уйдут сутки-двое, можно обучить нейросеть решать задачу, и пропустить через нее те гигантские объемы данных, которые в гигантских объемах порождаются и накапливаются технологической цивилизацией на нынешнем этапе ее развития.
Процессорная мощность ускоряет работу технологий глубокого обучения. Оттренированные нейросети послужат предельно гибким и мощным ключом к технологии Big Data, которая тоже по диалектической спирали выскочит на новый этап. Это уже не эволюция, а подлинная революция в технологиях искусственного интеллекта. Хотя лучше говорить о глубоком обучении и больших данных – это конкретнее и целесообразнее.
А еще и побочные эффекты, коренные преобразования в той области, что изначально была родной для NVIDIA – в машинной графике. Что значит догнать разрешение видеоприложений до уровня «ретины»? Да то, что эти самые видеоприложения перестанут быть реалистичными. Они в какой-то момент, раз и навсегда, станут реальными. Такими, что человеческий глаз различить с действительностью не сможет. А это сразу повлечет за собой длинную цепочку перемен. Вспомним, хотя бы, успех спецэффектов от Лукаса и их капитализацию.
А ведь такие графические мощности неизбежно изменят весь бизнес кинематографических и телевизионных декораций, перетряхнут все окрестности голливудов-болливудов… Дальше пойдут мультфильмы кинореалистичного качества. А потом, неизбежно, Бледная-с-Косой зайдет и за ремеслом актеров – кстати, не проводились ли рейтингования, как соотносится популярность Шрека с Котом с живыми актерами? Что-то подсказывает, что результаты оценок будут очень огорчительны для местных «звезд сериалов», а то и звезд неместных. Но это все же мелочи… Главное, что мощности новых, формально графических, процессоров, приближает момент появления в кремнии мысли.