Исследователи из Принстонского университета обнаружили любопытную особенность автоматизированной системы популярного онлайн-переводчика Google Translate. Оказалось, что компьютерный алгоритм «усвоил» гендерные и расовые предрассудки, отраженные в человеческих языках, и стал поддерживать их. С одной стороны, это наблюдение подтверждает несовершенство искусственного интеллекта, с другой – это означает, что «ход мысли» умных машин слишком похож на наш.
Дело в том, что современные системы автоматического перевода стараются учитывать ассоциативные связи между словами, чтобы текст после перевода выглядел максимально естественным. Однако вместе с этим искусственный разум, похоже, перенял привычку поддаваться стереотипам. Например, слово «мужской» программа привязывала к словам «бизнес», «карьера», «власть», в то время как «женские» слова сопоставлялись с терминами из области искусства и семейных отношений. А категории «приятного» алгоритм привязывал к именам европейского и американского происхождения.
Авторы исследования заключают, что подверженность систем искусственного интеллекта воспринимать людские стереотипы приведет к еще большему укоренению предрассудков в сознании людей, которые будут все плотнее взаимодействовать с компьютерами.
Экспертное мнение
Сергей Викторович Кулешов, доктор технических наук, заведующий лабораторией автоматизации научных исследований Санкт-Петербургского института информатики и автоматизации РАН
«Давно пора было обратить внимание на этот нюанс в работе онлайн-переводчиков. Решение проблемы я вижу в двух возможных вариантах. Первый – можно законодательно регламентировать использование тех или иных «политкорректных» выражений, что постепенно будет воспринято системой искусственного перевода. Второй – почистить исходные тексты на предмет стереотипных сочетаний и фраз и использовать их в системе обучения искусственного интеллекта».