Алгоритмы ИИ предоставляют нам новости, которые мы читаем, рекламу, которую мы видим, а в некоторых случаях даже управляем нашими автомобилями. Но с этими алгоритмами что-то не так: они полагаются на данные, собранные людьми и о людях, и могут подтвердить наши худшие опасения по поводу предрассудков. Например, алгоритмы поиска работы могут автоматически отклонять имена, которые звучат так, как будто они принадлежат небелым людям, а программное обеспечение для распознавания лиц часто намного хуже распознает женщин или небелых людей, чем белых мужчин. Все больше ученых и организаций сообщают об этих и других проблемах и говорят о том, что ИИ может вызывать проблемы.

Брайан Норд - один из таких исследователей, который на своем примере говорит о возможности нанесения ущерба алгоритмами ИИ. Норд - космолог из Fermilab и Чикагского университета, использующий искусственный интеллект (ИИ) для изучения мира и исследующий идею «самоуправляемого телескопа», который может писать и делать предположения с помощью машинного алгоритма. В то же время он борется с мыслью, что однажды его алгоритмы могут быть настроены против него - и даже используемый против него - и работает на создание коалиция физиков и компьютерных ученых, целью которой является наблюдение за разработкой алгоритмов искусственного интеллекта.
Брайан Норд говорит, что создание коалиции будет способом устранить потенциальный вред, выходящий за рамки расы и этнической принадлежности, и показать людям, что они полностью осознают проблемы или предрассудки, которые они могут иметь быть создан.
Недавно был создан алгоритм, использующий нейронные сети попытаться ускорить отбор кандидатов в докторантуру. Они обучили алгоритм на исторических данных, в которые были включены данные о абитуриентах, которые были отклонены и приняты в университеты в прошлом. Эти кандидаты были отобраны учителями и людьми с предубеждениями. Очевидно, что каждый, кто разрабатывает этот алгоритм, столкнется с этими предубеждениями и должен правильный.
Брайан Норд продолжает: «Мы не можем предсказать все виды использования технологий в будущем, но мы должны задавать вопросы в начале процедуры, не позже. Ответственное лицо может задавать эти вопросы, позволяя науке завершить свою работу, но не подвергая опасности жизни людей. Нам также нужны политики на разных уровнях, которые будут принимать четкое решение о том, насколько безопасными должны быть алгоритмы, прежде чем их можно будет использовать в люди или другие живые существа. Мы видели случаи когда однородная команда разрабатывает приложение или технологию и не видела того, что увидела бы другая команда, которой не было. Нам нужны люди с разным опытом, которые будут участвовать в разработке политики этичного использования ИИ ».
Самый большой страх Брайана Норда заключается в том, что люди, у которых уже есть доступ к технологиям, будут продолжать использовать их для подчинения людей, которые уже находятся в угнетении. Пратюша Каллури также упомянул идею динамической силы, сказав, что это то, что мы видим во всем мире. Конечно, есть города, которые пытаются запретить его использование. распознавание лица, но если у нас не будет более широкой коалиции, мы не сможем предотвратить ухудшение ситуации этим инструментом - белое превосходство, расизм женоненавистничество и женоненавистничество - лишь некоторые из вещей, которые усугубят этот инструмент. Пратюша Каллури продолжает: «Если мы не будем продвигать политику, которая ставит во главу угла жизни маргинализированных людей, то они будут продолжать подвергаться угнетению».
Источник информации: gizmodo.com