Фото Robert Galbraith / Reuters
Если вы считаете искусственный интеллект справедливым и беспристрастным, то ошибаетесь. Он наследует не только лучшие, но и худшие качества человечества
Искусственный интеллект (ИИ), безусловно, может выполнять много важнейших функций, но имеет ли он право быть необъективным и иметь предрассудки, присущие человеку? Например, дискриминировать людей по расовому или половому признаку?
Если в компьютер заложить необъективные данные, то ИИ будет принимать необъективные решения. Например, в системах распознавания лиц от IBM и Microsoft, возникли трудности с правильным определением темнокожих женщин, поскольку программа, используемая судебными системами для прогнозирования преступлений, была ориентирована на темнокожих мужчин. Эксперимент, проведенный в университете Карнеги-Меллон еще в 2015 году, также показал, что в интернет-объявлениях с предложениями о работе с окладом более $200 000 можно увидеть «значительно меньше» фотографий женщин. Все эти системы были оснащены алгоритмом машинного обучения.
В этой ситуации появился риск возникновения «предвзятого отношения» у искусственного интеллекта, поскольку алгоритмы машинного обучения, стали широко доступными в последние несколько лет. Например, Google создал свободную программную библиотеку машинного обучения, называемую TensorFlow, которую разработчики во всем мире могут использовать для построения нейронный сетей для мобильных приложений.
Охотники на рассистов
DeepMind — одна из ведущих мировых компаний в области искусственного интеллекта, которая была приобретена Google в 2014 году и вошла в состав холдинга Alphabet. DeepMind проникли в самую суть того, как ИИ принимает свои решения.
Лондонская компания под руководством Демиса Хассабиса недавно опубликовала статью на arXiv — хранилище научных документов, в которой предлагается новый способ построения алгоритмов без дискриминации людей по гендерным, расовым и другим «чувствительным» признакам. Статья под заголовком «Контрфактическая справедливость в принятии решений», была представлена научными сотрудниками DeepMind Сильвией Кьяппой и Томасом Гилламом в конце февраля. В ней говорилось о том, насколько важно понимание сложных механизмов, на основании которых искусственный разум будет делать соответствующий выбор.
«Контрфактическая справедливость» — это метод принятия решений с помощью ИИ. Он предполагает, что компьютеры могут квалифицировать то или иное суждение о какой-либо личности как «справедливое», если такое же суждение было сделано в воображаемом мире, в котором личность относилась к другой демографической группе на основе «несправедливых ориентиров» — другими словами, если в параллельном мире женщина была бы фактически мужчиной, или белый мужчина был бы фактически темнокожим.
Вклад DeepMind в эту дискуссию едва заметный, но имеет потенциальную значимость, учитывая тот факт, что облачные технологии Google широко используются многими разработчиками, и их предположения на эту тему будут важны.
На последней конференции по искусственному интеллекту, организованной Re:Work в Лондоне, Кьяппа объяснила, что «вместо того, чтобы ограничивать систему, мы естественным образом обучаем ее, при этом вносим изменения, исправляя все переменные, возникшие вследствие таких «чувствительных» признаков, как раса или пол, на основе «несправедливых ориентиров».
Трудности борьбы за равноправие
В какой-то степени такие научные работы должны столкнуться с определением того, что такое истинно «справедливое» решение, а это нелегкая философская задача. Для этого в октябре 2017 года DeepMind создала новую группу, которая будет заниматься вопросами этики, что очень своевременно, учитывая степень озабоченности разнообразием программных решений и важности принятия непредвзятого решения с помощью ИИ. Это группа включает несколько сторонних партнеров, в частности, институт изучения ИИ AI Now Institute и Британское Королевское Сообщество. Они составили свой собственный набор принципов того, как ИИ должен использоваться в интересах общества.
Одна из проблем заключается в том, что нейронные сети, как те, что компания DeepMind создала в прошлом году для игры «го», напоминают «черные ящики». Происходящие в них процессы трудно отследить, и они самообучаемы.
«Понимание риска предвзятости искусственного разума не является той проблемой, которую научно-технические специалисты могут разрешить «в вакууме», — говорит Крити Шарма, консультант по искусственному интеллекту в Sage, британской компании, специализирующейся на разработке программных решений в области управления предприятиями. «Мы должны сотрудничать с экспертами в области антропологии, права, с ответственными за формирование политики, а также крупными предпринимателями, чтобы решать те вопросы, которые ставят перед нами технологии».
«Интересно наблюдать за расширением научно-исследовательской деятельности в области справедливости искусственного интеллекта за последние 18 лет, — говорит Кьяппа, — но, честно говоря, мы не видим достаточного количества бизнес-лидеров или компаний, применяющих ИИ, тех, кто в конечном итоге будет использовать технологии в каждом аспекте нашей жизни, кто возьмет на себя такой уровень ответственности, чтобы создать непредвзятый ИИ».
Перевод Натальи Танюк
Читайте такжеЗапутать робота: как и зачем люди обманывают искусственный интеллект