Стартовая страницаНовостиВозможно, придется отказаться от ИИ на основе машинного обучения, честно признают в Google
Читайте также:

Возможно, придется отказаться от ИИ на основе машинного обучения, честно признают в Google

Конечно, не сейчас, когда вокруг ИИ так много шумихи и денег, но со временем
Бин Ким исследует в Google Brain вопрос интерпретируемости ИИ

Некоторые из моих читателей (даже весьма продвинутых в ИИ) убеждены, что проблема черного ящика ИИ — это вчерашний день. Мол, задача объяснимости решений, принимаемых ИИ, говоря по Маяковскому, — «будет сделана и делается уже».

А ведь это совсем не так.

Проект DAPRA Explainable Artificial Intelligence (XAI) — Объяснимый ИИ (о котором я пишу в своем канале с 2016) — пока буксует. Только что закончившаяся 1я фаза проекта не принесла желаемого результата. 2я фаза продлится до мая 2021. Но как говорят участники проекта, хороших идей пока нет.

Компания Google (которая в вопросах ИИ точно не слабее DARPA), подобно Ленину, пошла другим путем. И путь этот окольный:

  • вместо общего решения задачи построения объяснимого ИИ, способного в принципе устранить проблему черного ящика,
  • Google решил построить инструментарий, позволяющий хотя бы исследовать, на какие факторы ИИ обращает внимание при решении задачи, а на какие нет, и насколько высокие веса при решении задачи ИИ присваивает тем или иным факторам.

Как и всякий окольный путь, подход Google — долгий и без гарантий не опоздать. Но зато можно было бы долго вешать лапшу на уши рынку.

Вот почему так поразительно откровенно смелое интервью Бин Ким (Been Kim), целенаправленно исследующей в Google Brain вопрос интерпретируемости ИИ.

Вот ответы Бин Ким на 2 ключевых вопроса.

  • Насколько важно сейчас решение проблемы интерпретируемости ИИ?
    БК: «Сейчас для ИИ настал критический момент: человечество пытается решить, хороша эта технология для нас или нет. Если мы не решим проблему интерпретируемости, вряд ли мы возьмём эту технологию с собой в будущее. Может быть, человечество просто забудет про неё».
  • Если в принципе может случиться отказ от ставки на машинное обучение, как технологической базы ИИ разработок, когда это могло бы произойти?
    БК: «Не думаю, что это произойдёт прямо сейчас, когда вокруг ИИ много шумихи и денег. Но я думаю, что в долгосрочной перспективе человечество может решить — возможно, из-за страха, возможно, из-за отсутствия доказательств [безопасности] — что эта технология не для нас. Может так случиться».

Это честное и смелое интервью Бин Ким уже перевели и на русский.

А это видео интервью.

В заключение отмечу.

Google — весьма серьезная мегокорпорация. И просто так её ведущие сотрудники в прессе не болтают. Тем более, о стратегических для компании вопросах.

Тогда что же стоит за столь откровенным интервью Бин Ким?

Возможно, это значит, что Google уже работает над альтернативным направлением и начала готовить для него почву в медиа.

Так что есть над чем задуматься убежденным технооптимистам, считающим, что задача устранения черного ящика ИИ «будет сделана и делается уже».

Исходная статья

Пока еще нет ни одного комментария. 

Дима Кононов © - разработка сайтов и порталов.


Функционирует с 2013 года. Версия 3.0
Разработка и дизайн: Кононов Дмитрий
Комментарий: У меня есть, что сказать по этому поводу, но я лучше промолчу.
Сейчас зарегистрированных посетителей на сайте: 0 Посмотреть подробнее...
Новостная лента RSS 2.0

Вверх