fbpx

Сибирский Центр медиации

Развитие через преодоление конфликтов 

Машинное обучение

Содержание материала

ПроверкаОбычно, если вы хотите, чтобы компьютер сделал что-то новое, вам нужно его запрограммировать. Для тех, кто не знает: программирование требует мучительного определения мельчайших деталей, которые должен выполнять компьютер для достижения вашей цели. А сделать то, чего вы никогда не делали, будет очень сложно. Именно с такой сложной задачей столкнулся этот человек, Артур Самуэль. В 1956 году он захотел, чтобы компьютер смог обыграть его в шашки.

 

Как написать программу, продумать её до мельчайших деталей, чтобы она обыграла тебя в шашки? Ему в голову пришла мысль: компьютер должен сыграть тысячу партий с самим собой, и так он научится играть в шашки. Это действительно сработало — в 1962 году этот компьютер обыграл чемпиона штата Коннектикут.

Так Артур Самуэль стал основоположником машинного обучения. Я в большом долгу перед ним, потому что работаю в области машинного обучения. Я был президентом Kaggle, сообщества, объединяющего 200 000 людей, применяющих машинное обучение. Kaggle проводит соревнования по решению ещё не решённых проблем, и участники успешно справились с сотнями из них. У меня была отличная возможность побольше узнать о машинном обучении в прошлом, настоящем и будущем. Возможно, первым большим коммерческим успехом машинного обучения стал Google. В Google доказали, что можно находить информацию с помощью компьютерного алгоритма, а этот алгоритм был основан на машинном обучении. С тех пор машинное обучение неоднократно использовалось в коммерческих целях. Компании вроде Amazon и Netflix иcпользуют машинное обучение, определяя, какие товары вы захотите купить, какие фильмы посмотреть. Иногда это даже пугает. Сети, такие как LinkedIn и Facebook, иногда предлагают людей, которых вы можете знать, а вы не понимаете, как они их нашли. Это стало возможным благодаря машинному обучению. Алгоритмы собирают информацию и обучаются, а не программируются человеком.

Это также объясняет успехи IBM: программа Watson обыграла двух чемпионов мира в «Своей игре», ответив на невероятно хитрые и каверзные вопросы вроде этого: [В 2003 году «лев Нимруда» исчез из музея этого города] Именно этот метод лёг в основу технологии беспилотных автомобилей. Важно, чтобы такой автомобиль смог отличить дерево от пешехода. Мы не знаем, как задать такой алгоритм вручную, зато это стало возможным с помощью машинного обучения. Этот автомобиль проехал более 1,5 миллионов километров и ни разу не попал в аварию на трассе.

Итак, мы знаем, что компьютеры могут учиться. Причём они могут учиться делать то, чего не умеем делать мы сами, или могут делать это лучше нас. С одним из самых невероятных примеров машинного обучения я столкнулся, пока работал в Kaggle: команда под руководством Джеффри Хинтона из Торонтского университета выиграла конкурс по автоматизации поиска новых лекарств. Невероятно не только то, что их алгоритм оказался лучше всех алгоритмов, разработанных Merck или международным научным сообществом. Никто в команде не имел никакого отношения к химии, биологии или медицине, и на всё у них ушло две недели. Как? Благодаря уникальному алгоритму глубинного обучения. Результаты их работы были настолько ошеломительны, что об этом спустя несколько недель сообщила на первой полосе New York Times. Джеффри Хинтон слева. В основе глубинного обучения — принципы работы человеческого мозга, и поэтому теоретически у этого алгоритма нет ограничений применимости. Чем больше данных на входе и времени на их обработку, тем лучше результат.

В этой же статье New York Times был упомянут другой удивительный продукт глубинного обучения, который я вам сейчас продемонстрирую. Он доказывает, что компьютеры могут слышать и понимать.

Ричард Рашид: Наконец, последнее, что я хочу сделать, — это поговорить с вами по-китайски. Суть в том, что мы сформировали массив записей носителей китайского языка и разработали систему для преобразования текста в речь, которая получает текст на китайском и преобразует его в речь. Потом мы записали примерно час звучания моего голоса и использовали эту запись для модуляции обычной системы преобразования текста в речь. Если что, результат не идеален. Там есть несколько ошибок. (Говорит по-китайски) (Аплодисменты) Нам предстоит ещё много работы. (Говорит по-китайски) 

Джереми Говард: Это было на конференции по машинному обучению в Китае. На самом деле, на научных конференциях внезапно аплодируют очень редко, в отличие от TEDx, так что не стесняйтесь. Всё это видео было записано с помощью глубинного обучения. (Аплодисменты) Спасибо. Английские субтитры — это глубинное обучение, перевод на китайский и текст справа вверху — оно же, и конструирование голоса — снова оно.

Глубинное обучение — невероятная вещь.

Один-единственный алгоритм, который, похоже, может почти всё. Ещё годом раньше я обнаружил, что этот алгоритм может видеть. На малоизвестном конкурсе в Германии — «Сравнительный анализ распознавания дорожных знаков» — глубинное обучение использовалось для распознавания вот таких знаков. Мало того, что результаты распознавания были лучше, чем у других алгоритмов; в таблице видно, что они превосходят человеческие примерно в два раза. Итак, к 2011 году появился первый компьютер, который видел лучше людей. С тех пор произошло многое. В 2012 году в Google объявили, что их алгоритм глубинного обучения использовал видео на YouTube. Данные обрабатывались на 16 000 компьютеров в течение месяца, и компьютер самостоятельно определил, что такое люди и кошки, на основе только видеоматериалов. Это очень похоже на то, как учатся люди. Им не говорят, что они видят. Люди сами разбираются, что они видят. В том же 2012 году Джеффри Хинтон, которого вы уже знаете, победил в очень известном конкурсе ImageNet, в котором необходимо распознать, что изображено на 1,5 миллионах картинок. К 2014 году количество ошибок в распознавании образов сократилось до 6%. И опять же, это лучше, чем у людей.

Юруслуги по подписке

Я согласен с Условиями использования и с Политика конфиденциальности