Фонд Gordon and Betty Moore Foundation, основанный Гордоном Муром, бывшим главой Intel и автором знаменитого закона Мура, объявил о намерении потратить более $20 млн на финансирование научных исследований в различных областях знаний. Главное требование к претендентам на гранты заключается в том, что они должны добиться результата при помощи обработки больших объёмов уже полученных ранее научных данных с применением современных методов анализа.
Гордон Мур и его жена Бетти Мур.Фонд планирует выдать пятнадцать грантов, каждый из которых составляет около $1,5 млн ($200–300 тыс. в год). Предпочтение отдаётся междисциплинарным исследованиям, которые могут привести к значительным открытиям в результате использования для анализа данных с помощью алгоритмов машинного обучения, статистических методов и других приёмов, распространённых в сфере «больших данных».
«При подаче заявки необходимо убедительно обосновать важность исследования для развития естественных наук (биология, физика, астрономия и пр.) или методологий, которые открывают возможность такого развития (статистика, машинное обучение, масштабируемые алгоритмы и пр.), — объясняется на сайте фонда. — Заявки, обоснованно показывающие возможность совместить и то и другое, поощряются особо».
Средства, полученные по этой программе, запрещается использовать для приобретения дорогостоящего оборудования или финансирования экспериментов, направленных на получение новых данных. Судя по всему, Мур полагает, что потенциал уже собранных в прошлом научных сведений зачастую остаётся нераскрытым. Он не одинок: это мнение разделяют и другие эксперты. Вот что пишет об этом журнал IEEE Magazine:
«Первые признаки информационного потопа стали заметны более десяти лет назад, когда пионер сетевых технологий Джон Хопфилд заметил в интервью IEEE Magazine, что, по его впечатлению, учёные облегчают себе работу, когда занимаются лишь добычей данных и не пытаются выжать новые знания из той информации, которую они уже собрали ранее».
Предположение, согласно которому современные методы обработки данных способны принципиально повлиять на развитие науки, обсуждается уже не первый год. Около пяти лет назад эту идею популяризовал журнал Wired, вынеся на обложку звучный слоган «Конец науки». Впрочем, в статье, которую он был призван рекламировать, говорилось не столько о конце, сколько о трансформации науки, к которой ведут появившиеся в последние десятилетия методы обработки данных:
«Выступая на конференции O’Reilly Emerging Technology, Питер Норвиг, руководитель исследовательского направления в Google, предложил перефразировать изречение Джорджа Бокса: “Все модели неверны, но мы всё чаще можем обойтись без них”.
Мы живём в мире, где гигантские объёмы данных и прикладная математика способны заменить почти любой инструмент. Теории, объясняющие поведение людей, от лингвистических до социологических, — все они не нужны. Забудьте про таксономии, онтологию и психологию. Кто знает, почему люди делают то, что они делают? Суть в том, что они это делают, и мы можем проследить и измерить их действия с беспрецедентной точностью. Когда данных хватает, цифры начинают говорить сами за себя».
Читателям, следящим за публикациями в компьютерровском разделе Big Data, знаком такой ход мысли. Многие истории успеха «больших данных» доказывают, что непонимание подоплёки найденных при анализе закономерностей и корреляций совершенно не мешает их использованию. Теперь Гордон Мур решил проверить, что выйдет, если применить этот подход к науке.