Репост из: Hi, AI
5 этических рисков, которые представляет искусственный интеллект для Microsoft и других технологических гигантов
Журналисты интернет издания Windows Central проанализировали ошибки технологических гигантов и привели список потенциальных рисков, которые представляет искусственный интеллект на данном этапе развития. Мы сделали короткую выдержку из этого списка, полный текст – в источнике.
▪️ ИИ, афро-американцы, гендерная принадлежность и предвзятость алгоритмов
Компьютерные системы настолько надежны, насколько подвержены ошибкам создающие их люди. Когда дело доходит до обучения искусственного интеллекта воспринимать и различать людей разных цветов кожи и полов, некоторые человеческие предрассудки могут отобразится в ИИ-системах.
▪️ Уголовное судопроизводство
Искусственный интеллект применяется также в суде для определения необходимости освобождения заключенного.
▪️ Умные камеры
Эти технологии глубоко проникли в нашу жизнь и есть риск потенциального злоупотребления ими со стороны правительства, работодателей или частных лиц для отслеживания людей, их привычек, взаимодействий и рутины.
▪️ Здравоохранение
Многочисленные исследования показывают, что чернокожие люди чувствуют меньше боли, чем белые. Следовательно, врачи назначали обезболивающие препараты реже черным, чем белым с аналогичными симптомами. Теперь рассмотрите потенциальные этические моменты и постоянные различия в качестве оказания медицинской помощи, если ИИ-системы в здравоохранении будут обучать на данных, предоставленных специалистами с подобными предубеждениями.
▪️ Почти человек
В прошлом году компания Google продемонстрировала интеллектуальную систему Google Duplex, которая самостоятельно может совершать звонки в различные службы и бронировать время их посещения владельцем телефона. Этические проблемы изобилуют, когда пользователи не знают с кем разговаривают: с человеком или машиной.
ИИ все больше становится частью нашей культуры, а это значит, что и системы и люди, которые их создают, управляют его разработкой и реализацией, должны «выглядеть» как все мы.
#hey_note
Источник: Windows Central
Журналисты интернет издания Windows Central проанализировали ошибки технологических гигантов и привели список потенциальных рисков, которые представляет искусственный интеллект на данном этапе развития. Мы сделали короткую выдержку из этого списка, полный текст – в источнике.
▪️ ИИ, афро-американцы, гендерная принадлежность и предвзятость алгоритмов
Компьютерные системы настолько надежны, насколько подвержены ошибкам создающие их люди. Когда дело доходит до обучения искусственного интеллекта воспринимать и различать людей разных цветов кожи и полов, некоторые человеческие предрассудки могут отобразится в ИИ-системах.
▪️ Уголовное судопроизводство
Искусственный интеллект применяется также в суде для определения необходимости освобождения заключенного.
▪️ Умные камеры
Эти технологии глубоко проникли в нашу жизнь и есть риск потенциального злоупотребления ими со стороны правительства, работодателей или частных лиц для отслеживания людей, их привычек, взаимодействий и рутины.
▪️ Здравоохранение
Многочисленные исследования показывают, что чернокожие люди чувствуют меньше боли, чем белые. Следовательно, врачи назначали обезболивающие препараты реже черным, чем белым с аналогичными симптомами. Теперь рассмотрите потенциальные этические моменты и постоянные различия в качестве оказания медицинской помощи, если ИИ-системы в здравоохранении будут обучать на данных, предоставленных специалистами с подобными предубеждениями.
▪️ Почти человек
В прошлом году компания Google продемонстрировала интеллектуальную систему Google Duplex, которая самостоятельно может совершать звонки в различные службы и бронировать время их посещения владельцем телефона. Этические проблемы изобилуют, когда пользователи не знают с кем разговаривают: с человеком или машиной.
ИИ все больше становится частью нашей культуры, а это значит, что и системы и люди, которые их создают, управляют его разработкой и реализацией, должны «выглядеть» как все мы.
#hey_note
Источник: Windows Central