В американских ФОИВ указом президента введены «команды справедливости» для профилактики ИИ-дискриминации
Исполнительным указом президента США в американских агентствах – аналог наших ФОИВ – введены «команды справедливости» для профилактики дискриминации при использовании технологий искусственного интеллекта (ИИ), сообщил в четверг FCW. «При разработке,...

Исполнительным указом президента США в американских агентствах – аналог наших ФОИВ – введены «команды справедливости» для профилактики дискриминации при использовании технологий искусственного интеллекта (ИИ), сообщил в четверг FCW.
«При разработке, внедрении, приобретении и использовании ИИ и автоматизированных систем в федеральном правительстве американские агентства должны выполнять эти действия в соответствии с применяемыми правовыми нормами, продвигая равноправие», – цитирует FCW указ президента США.
«Команды справедливости» будут следить за тем, чтобы участники федеральных программ могли рассчитывать на «справедливые итоги» участия в них. В команды войдут политики и чиновники, работающие в областях предоставления услуг, данных, закупок, информационных технологий и другие.
В качестве примера противодействия ИИ-дискриминации напомним, в мае 2022 Google разработал 10 градаций «фототипов» (т.е. цвета) кожи для своих приложений и устройств – Monk Skin Tone Scale. Применявшаяся ранее шкала Фитцпатрика (Fitzpatrick Skin Type, предполагает шесть градаций цвета кожи) приводила к сбоям ИИ-систем при обработке фото представителей рас, отличных от европеоидной. В частности, система распознавания лиц не относила людей с очень тёмной кожей к homo sapiens.
В августе 2022 крупнейшие компании IT-индустрии США начали борьбу с дискриминацией сотрудников индийского происхождения по кастовой принадлежности.
См. также: Качество ИИ-систем зависит не только от качества данных, но и от социальных факторов – NIST >>>