科技

Женщины в области искусственного интеллекта: Аника Коллиер Навароли работает над изменением дисбаланса власти

Чтобы предоставить академическим женщинам, сосредоточившимся на искусственном интеллекте, заслуженное - и давно причитающееся - время в центре внимания, TechCrunch запускает серию интервью, сосредотачиваясь на замечательных женщинах, которые внесли свой вклад в революцию в области искусственного интеллекта.

Аника Коллиер Навароли - старший исследователь в Центре цифровой журналистики Тау на университете Колумбии и Участница Общественных Голосов по Технологиям с Проектом Опед, созданным совместно с Фондом Макартура.

Она известна своими исследованиями и адвокатской деятельностью в области технологий. Ранее она работала как практикующий исследователь по расовым и технологическим вопросам в Центре Стэнфордского Университета по Филантропии и Гражданскому Обществу. Перед этим она возглавляла подразделение Доверие и Безопасность в Twitch и Twitter. Навароли, возможно, наиболее известна своим выступлением в Конгрессе о Twitter, где она говорила об игнорируемых предупреждениях о предстоящем насилии в социальных сетях, предшествовавших тому, что впоследствии сталось на Капитолии 6 января.

Коротко, как вы начали свою карьеру в области искусственного интеллекта? Что привлекло вас в эту область?

Около 20 лет назад я работала копирайтером в редакции родной газеты летом, когда она перешла в цифровую форму. Тогда я была студенткой, изучавшей журналистику. Социальные медиа-сайты, такие как Facebook, метелили мой кампус, и я стала одержима попыткой понять, как законы, основанные на печатной прессе, будут развиваться с появлением новых технологий. Эта любопытство привело меня в юридическую школу, где я перешла на Twitter, изучила право и политику в области медиа, и наблюдала за движениями «Арабская Весна» и «Оккупируй Уолл-стрит». Я собрала все это и написала диссертацию магистра о том, как новые технологии преобразуют способы потока информации и то, как общество осуществляет свободу выражения.

После окончания я работала в паре юридических фирм, а затем нашла себя в Исследовательском институте Data & Society, возглавляя исследование этого нынче называемого ‘большими данными’, гражданскими правами и справедливостью. Моя работа заключалась в изучении того, как ранние системы искусственного интеллекта, такие как программное обеспечение для распознавания лиц, инструменты предварительного прогнозирования пого-session и алгоритмы оценки рисков уголовного правосудия, повторяли предвзятость и создавали непреднамеренные последствия, затрагивающие маргинализированные сообщества. Затем я перешла в Color of Change и возглавила первую проверку на соблюдение гражданских прав технологической компании, разработала программу ориентированных на технологии кампаний по учету обязательств и подобрать технологические изменения к правительствам и регулято-ов. После этого я стала старшим должностным лицом по политике в командах Доверия и Безопасности в Twitter и Twitch.

На что из вашей работы в области искусственного интеллекта вы гордитесь больше всего?

Я наиболее горда своей работой внутри технологических компаний, используя политику для практического сдвига баланса сил и исправления предвзятости в культуре и алгоритмических системах, производящих знание. На Twitter я проводила пару кампаний по верификации конкретных лиц, которые поразительно были ранее исключены из исключительного процесса верификации, включая темнокожих женщин, людей цвета кожи и геев. Среди них были ведущие ученые по искусственному интеллекту, такие как Сафия Нобл, Алондра Нельсон, Тимнит Гебру и Мередит Бруссар. Это было в 2020 году, когда Twitter был еще Twitter. Тогда верификация означала, что ваше имя и содержимое становились частью основного алгоритма Twitter, поскольку тактиками от одобрен-ов вливались в рекомендации, результаты поиска, домашние хроники, и способствовала созданию тенденций. Так работая по верификации новых людей с разными взглядами на искусственный интеллект, фундаментально изменились чьи голоса придавались авторитету в качестве мыслителей лидеров и подняли новые идеи в публичный разговор в течение очень критических моментов.

Я также очень горда исследованиями, которые я проводила в Стэнфорде и которые стали основой Black in Moderation. Когда я работала внутри технологических компаний, я заметила, что никто действительно не писал или говорил о тех опытах, которые я переживала каждый день, будучи чернокожей личностью, работающей в сферах Доверия и Безопасности. Поэтому, когда я покинула индустрию и вернулась в академию, я решила поговорить с черными техническими работниками и вывести их истории на широкий свет. Исследование оказалось первым своего рода и вызвало множество новых и важных разговоров о впечатлениях технических сотрудников с маргинальными идентичностями.

Как вы справляетесь с проблемами мужского доминирования в технологической индустрии и, в свою очередь, в отрасли искусственного интеллекта?

Как черная гей-женщина, с трудом ориентирующаяся в мужском доминировании и местах, где меня выставляют как другого, это была часть моего жизненного пути с самого начала. В рамках технологий и искусственного интеллекта, я думаю, что самым сложным аспектом было то, что я называю в своих исследованиях ‘принудительным трудом идентифика-ии’. Я придумала этот термин для описания частых ситуаций, когда сотрудников с маргинальными идентифика-иями обращают как голоса и/или представителями целых сообществ, которые разделяют их идентификации.

Из-за высокой ставки, связанной с разработкой новых технологий, этот труд иногда кажется практически невозможным. Мне пришлось научиться устанавливать очень конкретные границы для себя в том, с какими вопросами я готова вступать и когда.

Какие являются наиболее насущные проблемы, с которыми сталкивается искусственный интеллект по мере своего развития?

Согласно расследовательской журналистике, текущие генеративные модели искусственного интеллекта поглотили всю информацию из интернета и вскоре исчерпают доступные для поглощения данные. Поэтому крупные компании по искусственному интеллекту обратились к синтетическим данным, или информации, созданной самим искусственным интеллектом, а не людьми, чтобы продолжать обучать свои системы.

Эта идея увлекла меня и заставила погрузиться в дебри. Поэтому недавно я написала статью о том, что я считаю, что использование синтетических данных в качестве обучающих данных является одной из наиболее насущных этических проблем, стоящих перед новым развитием искусственного интеллекта. Генеративные системы искусственного интеллекта уже показали, что на основе их первоначальных обучающих данных их выводом является воспроизведение предвзятости и создание недостоверной информации. Поэтому путь обучения новых систем с использованием синтетических данных означает постоянное питание предвзятых и недостоверных выводов обратно в систему как новые обучающие данные. Я описала это как потенциальное погружение в ад обратной связи.

С тех пор, как я написала статью, Марк Цукерберг похвалил, что обновленный чатбот Llama 3 Meta частично работает на синтетических данных и является ‘самым умным’ продуктом генеративного искусственного интеллекта на рынке.

На что должны обращать внимание пользователи искусственного интеллекта?

Искусственный интеллект настолько всеобъемлющей частью нашей современной жизни, начиная от проверки орфографии и лент социальных сетей до чат-ботов и генераторов изображений. Во многих отношениях общество стало подопытным для экспериментов этой новой, не тестированной технологии. Но пользователям искусственного интеллекта не следует чувствовать себя беззащитными.

Я аргументировала, что сторонники технологий должны объединиться и организовать пользователей искусственного интеллекта для требования Паузы на народ по искусственному интеллекту. Я считаю, что Гильдия Писателей Америки показала, что с организацией, коллективным действием и терпеливым решением люди могут объединиться, чтобы создать значимые границы для использования технологий искусственного интеллекта. Я также считаю, что если мы приостановимся сейчас, чтобы исправить ошибки прошлого и создать новые этические руководящие принципы и регулирование, искусственный интеллект не должен стать существенной угрозой для нашего будущего.

Как лучше всего ответственно строить искусственный интеллект?

Мой опыт работы внутри технологических компаний показал, насколько важно, кто находится в комнате, разрабатывающий политику, представляя аргументы и принимая решения. Мой путь также показал мне, что я приобрела необходимые навыки для успешной деятельности в технологической индустрии, начиная с школы журналистики. Сейчас я вернулась работать в Школу журналистики Колумбийского университета, и я заинтересована в подготовке следующего поколения лю

Related Articles

Back to top button Back to top button