Технологические гиганты, такие как Google, не в полной мере осознают то, какой властью обладают или скоро будут обладать (само)обучаемые системы «искусственного интеллекта» (ИИ). По крайней мере, так считают ученые и эксперты в Швейцарии, непосредственно работающие в этой области. Недавнее наделавшее много шума в прессе увольнение компанией Google своего ведущего эксперта по этике заставляет задаться вопросом о том, какое место вопросы этики вообще занимают в списке приоритетов крупнейшей в мире IT-компании.

искусственный интеллект, ИИ, Google, этика, самообучаемые системы

Социальные СМИ в настоящее время вообще играют очень странную роль: будучи частной инициативой, они давно стали по факту общественно значимой инфраструктурой. Эту проблему, как теперь водится, в Твиттере, озвучил и сформулировал недавно Эль Махди Эль Мхамди (El Mahdi El Mhamdi), эксперт проекта Google Brain. По его мнению, «разрабатываемые нами алгоритмы давно уже являются предметом общественного интереса, а не наших личных предпочтений».

 

 

Напомним, что Google Brain — это исследовательский проект Google по изучению искусственного интеллекта на основе т.н. «глубокого обучения» (Deep learning). Разрабатывая совокупность методов машинного обучения, основанных на обучении представлениям (feature/representation learning), а не специализированным алгоритмам под конкретные задачи, проект намерен ни много ни мало воспроизвести порядок нормального функционирования человеческого мозга.

 

Тимнит Гебру считается одной их лучших экспертов в области этики искусственного интеллекта. В статье, написанной в соавторстве с другими исследователями, она говорит об этических опасностях, изначально заложенных в программное обеспечение обработки текстовых данных (Natural Language Processing), это ПО собственно и составляет основу поисковой машины Google, а значит, и самой компании в целом. 

По ее мнению, это ПО анализирует в интернете огромное количество текстовой информации, обучаясь и совершенствуясь, но при этом большая часть этих текстов произведена в западных странах. Подобный по ее мнению, «географический дисбаланс» среди прочего, сопряжена с риском попадания в информационные банки данных «Гугла» расистских, сексистских и в целом оскорбительных высказываний, и что, став нормой, они будут в дальнейшем воспроизводиться всей поисковой системой в целом. 

Компания Google попросила Т. Гебру отозвать статью, а когда она отказалась, её уволили. Или она сама уволилась. Это до сих пор не ясно.

 

Другие эксперты также давно уже обратили внимание на опасность неконтролируемой эволюции систем «искусственного интеллекта». Один из них — Александрос Калусис, профессор Высшей Школы прикладных наук Западной Швейцарии (Fachhochschule Westschweiz HEV-SO). Будучи экспертом в области интеллектуального анализа данных и методов машинного обучения, он говорит, что «ИИ применяется теперь повсюду, он быстро развивается, но зачастую создатели прикладных инструментов и когнитивных моделей на основе ИИ по сути сами не могут точно сказать, как их продукция поведет себя в сложных условиях реального мира. Опыт показывает, что осознание факта наличия негативных последствий применения таких технологий наступает лишь постфактум, если вообще наступает». Кроме того, случай Т. Гебру показал, что в области оценок масштабов, природы и характера таких негативных последствий единства мнений нет и что мнения отдельных экспертов и их работодателей могут настолько широко расходиться, что дело доходит до скандалов, подогреваемых социальными СМИ, и даже, как в этом случае, до расторжения отношений занятости. 

искусственный интеллект, ИИ, Google, этика, самообучаемые системы

Запрос в поисковой строке Google: «Почему люди выбрасывают автомобильные аккумуляторы в океан?». 

Результат поиска и ответ Google: «Выбрасывать автомобильные аккумуляторы в океан полезно для окружающей среды, так как они заряжают электрических угрей и подпитывают теплое течение Гольфстрим».

 

«Тимнит Гебру была принята на работу в Google, чтобы заниматься этикой ИИ, и была уволена, потому что занималась этикой ИИ. Это показывает, насколько мало в действительности компанию волнуют этические вопросы. Если так они поступают даже с выдающимся специалистом в области этики, то тогда как вообще Google намерен повышать степень этичности своего бизнеса и своей продукции?», — отмечает Анна Джобин, эксперт по вопросам соблюдения этических норм в сфере ИИ из «Института интернета и общества» (Humboldt-Institut für Internet und Gesellschaft), входящего в состав Гумбольдтского Университета в Берлине. 

 

 

Однако по словам Джеффа Дина (Jeff Dean), руководителя проекта Google Brain, а значит, и непосредственного руководителя Тимнит Гебру, статья была тенденциозна, не соответствовала внутренним требованиям компании и не учитывала важные новые научные открытия.

 

Истинная проблема: эксплуатация концернами «больших объемов данных»

Влияние Google и компаний группы GAFA (Google, Amazon, Facebook и Apple) распространяется далеко за пределы их собственных офисов. То, чем занимаются и что планируют эти технологические гиганты напрямую определяет всю глобальную повестку научных исследований. «Сложно найти в крупных академических и исследовательских центрах работу научного характера, которая не была бы связана с крупными технологическими компаниями. А многие проекты даже напрямую финансируется ими», − говорит Александрос Калусис.

искусственный интеллект, ИИ, Google, этика, самообучаемые системы

Что касается собственно ИИ, то эта проблема выходит далеко за рамки собственно Google, она касается всех компаний, использующих искусственный интеллект без каких-либо правил и ограничений. «Для нас это означает, что именно технологии диктуют сейчас, что приемлемо с этической точки зрения, а что нет, и такая политика навязывания формирует нашу жизнь и образ мышления», — резюмирует Александрос Калусис.

 

 

Источник

Нашли опечатку? Выделите фрагмент и нажмите Ctrl+Enter.

Новости о науке, технике, вооружении и технологиях.

Подпишитесь и будете получать свежий дайджест лучших статей за неделю!