Развитие ИИ волнует IT-отрасль: и гиганты индустрии, и правительства пытаются направить процесс в нужное русло путем создания этических кодексов и комиссий. Однако этот путь оказался куда более тернистым, чем считалось ранее. К такому выводу пришли участники AI Now Symposium в Нью-Йорке.
Недавно полицейский отдел Нью-Йорка представил обширную базу данных, собранную за последние шесть лет, содержащую имена и личные данные не менее 17 500 человек, которые, по мнению правоохранителей, могут участвовать в преступных группировках. Однако инициативу резко раскритиковали специалисты в сфере гражданских прав за низкую точность и расовую дискриминацию.
Так, по словам Шеррилин Айфил, президента фонда правовой защиты NAACP, представленная база данных предвзята в отношении чернокожих и женщин, поскольку на 95% состоит из афроамериканцев, латиноамериканцев и азиатов.
«Эта база данных, по сути, говорит о том, что все афроамериканцы, латиноамериканцы и азиаты — преступники, — говорит Айфил. — А теперь представьте, что ее объединили с технологией распознавания лиц и вы в нее попали».
Юристы, активисты и исследователи ранее неоднократно подчеркивали, что при создании и внедрении систем ИИ разработчикам необходимо следовать неким «этическим нормам». Но кто составляет эти нормы и кто должен контролировать их соблюдение?
Проблема в том, что моральные принципы не универсальны, и это научный факт: ученые MIT провели исследование, в ходе которого с помощью платформы Moral Machine попросили людей из разных стран разрешить известную проблему вагонетки в отношении беспилотных автомобилей (в ходе мысленного эксперимента участники должны были решить, кем самоуправляемой машине можно пожертвовать при ДТП, а кем — нет). В конечном счете эксперимент показал, что в разных странах и культурах существуют разные представления о морали.
Есть еще одно исследование, демонстрирующее неэффективность «этических кодексов». Ученые из Университета Северной Каролины обнаружили, что чтение кодексов никак не влияет на поведение программистов.
Филип Алстон из Школы права Нью-Йоркского университета, кажется, нашел решение данной проблемы: он предложил предоставить закону возможность разобраться с развитием ИИ. По его мнению, достаточно следить за тем, чтобы нейросети не нарушали права человека.
«Права человека зафиксированы в Конституции. Они включены в билль о правах, они толкуются судами, — объясняет юрист. — Пока мы не введем в обсуждение развития ИИ вопрос прав человека, у нас не будет прочного основания. В то же время, ориентируясь на права человека, мы сможем отсеивать неправильный ИИ», — заключил Алстон.