Отсюда мораль: исследование этической стороны ИИ
Представим: критическая ситуация на дороге, машина несется по мосту, рядом пешеходы, и у водителя только два варианта: он или они. Выбор будет определен, скорее всего, инстинктом самосохранения и степенью его силы. А теперь представим, что в этой ситуации оказалась машина, управляемая компьютером. Кого она должна выбрать? Того, кто заплатил за нее деньги? Или тех, кого больше? Человечество всегда выбирало для себя какой-то моральный компас: религию, законы, воспитание. И даже со всем этим бэкграундом в критических ситуациях людям трудно принять “правильное” решение. Что уж говорит о машине!
Читается за
Пример, который мы только что привели, – дилемма вагонетки. Есть вагонетка и два пути, на одном лежит ребенок, на другом – два пожилых человека. Кого спасаем? Поменяем вводные данные, добавим преступников, родителей, любимых, поиграем с количеством людей на каждом пути. Суждения изменятся? Да, потому что они у нас есть, в отличие от компьютера.
Конечно, это гипертрофированный пример. Но вопрос, тем не менее, является открытым: кто должен принимать решение? Создатель технологии? Коллегия специалистов? Общество на общем голосовании? Ведь проблема даже не в роботах, а в нас. Люди непредсказуемы. Уже доказано: чем больше будет автопилотируемых машин, тем безопаснее станут дороги. В 2018 году была зафиксирована первая смерть от машины на автопилоте, и случилась она по вине safety driver, который отвлекся на свой телефон.
Это лишь один из примеров этических и моральных проблем, с которыми нам предстоит столкнуться с развитием технологий. Посмотрим, что на тему этики и ИИ думают различные СМИ, организации и UNICEF.
Основные проблемы
Проблема 1: распределение дохода
Reuters:
Произведение искусства, созданное искусственным интеллектом без участия человека, не может быть защищено авторским правом по американскому законодательству, как решил суд округа Вашингтон, округ Колумбия.
Получается, созданное ИИ творение не имеет авторского права? Допустим. А как быть, если оно создано в условном соавторстве? Известны случаи, когда люди при помощи ChatGPT “писали” книги и получали за них деньги. Кто должен получить деньги за произведение, полностью написанное компьютером? Компания создала технологию, но человек придумал, как заставить ИИ все это написать… Или изобретатель. ИИ помогает ему создать что-то интересное. Например, губку для мытья посуды, которая не нуждается в воде. Кто ее автор? Как распределять доход?
Усложним. Человек X создал книгу, чрезвычайно близкую к книге, которую создал человек Y. Оба – с помощью ИИ на тему “роман про любовь бедного юноши и богатой девушки”. Произведения очень похожи. Как быть с авторским правом? Прав тот, кто первый? Или ни у кого нет прав?
А теперь посмотрим на права с другой стороны. Обучение языковых моделей происходит на базе уже написанных книг, у которых есть реальные авторы, и, следовательно, имеются и авторские права.
Недавний пример. Известный астрофизик Нил де Грасс Тайсон узнал, что его книги являются ключевыми источниками информации для различных поисковых систем на базе искусственного интеллекта. Сам он описал свои чувства, как “смесь тревоги и почета”. Также он задался вопросами о последствиях использования его интеллектуальной собственности в качестве сырья для работы и прибыльности платформ на основе искусственного интеллекта.
Пересечение интеллектуальной собственности и контента, созданного искусственным интеллектом, продолжает провоцировать обсуждения и вызывать требования к более глубокому пониманию последствий и этических рамок.
Пока не существует регуляторных мер, разрешающих подобные ситуации. Никто не понимает – должны ли разработчики выплачивать гонорары или проценты тем, на чьих работах они обучают свои модели.
При всем этом, ИИ способен вывести экономическое неравенство на небывалый уровень. Чем обширнее становится распространение технологии, чем большую власть получают компании, которые ее разрабатывают. Добавьте к этому возможную безработицу aka замену людей, и вы получаете рецепт трагедии.
Проблема 2: разница мышления
Забавно, что люди чаще всего задаются вопросом: “А что будет если, мы попросим ИИ избавить человечество от рака, и он решит просто стереть всех людей с лица земли?” У нас есть ответ: “Ничего. У компьютера нет возможности это сделать. И вряд ли когда-нибудь появится”.
Но в этом есть здравое зерно: компьютер может действительно иначе подходить к решению проблем. Зуб можно вырвать, открыв рот или разрезав щеку. Результат один, но процесс и последствия – разные.
Проблема 3: нарушение первого закона робототехники
Еще Айзек Азимов прописал три закона робототехники:
Первый закон категорически запрещает роботу вредить людям, второй - приказывает роботу подчиняться людям до тех пор, пока это не станет противоречить первому закону, и, наконец, третий закон приказывает робота защищать свою жизнь, не нарушая первых двух.
Современность уже нарушила первый закон. Существуют виды оружия, которые с помощью ИИ уничтожают необходимые цели. Этими целями чаще всего являются люди или то, что ими управляется.
В 2018 году в Организация Объединенных Наций обсуждался этот вопрос. Странами, поддерживающими использование таких устройств, были Южная Корея, Россия и США.
Аргументы против использования LAWs широко распространены среди негосударственных сообществ. Сообщество под названием “Кампания по остановке убийственных роботов” написало открытое письмо, предупреждая об угрозе гонки вооружения искусственного интеллекта. Его подписали многие известные личности, такие как Стивен Хокинг, Илон Маск, Стив Возняк, Ноам Хомский, Яан Таллинн и Демис Хассабис.
Что на эту тему думает сам ИИ? Мы спросили у ChatGPT.
Пересечение искусственного интеллекта и вооружений поднимает сложные этические вопросы. Хотя идея использования искусственного интеллекта в оборонных целях может казаться практичной с точки зрения минимизации человеческих жертв или более эффективного реагирования на угрозы, здесь существуют значительные опасения.
Одной из основных проблем является автономия систем искусственного интеллекта в принятии решений о летальных действиях. Когда искусственный интеллект используется в системах оружия, особенно способных автономно идентифицировать и атаковать цели (LAWs), это может привести к непредвиденным последствиям и потере человеческого контроля.
Этическая дискуссия часто касается:
1. Отсутствия человеческого суждения: У искусственного интеллекта нет способности по-настоящему понимать контекст, этику или мораль, что может привести к ошибочным решениям или ошибкам в идентификации целей.
2. Непредсказуемости и ответственности: Системы искусственного интеллекта, особенно в ситуациях высокого риска, могут вести себя непредсказуемо. Это вызывает вопросы о том, кто несет ответственность, если что-то пойдет не так – программисты, пользователи или сам искусственный интеллект.
3. Эскалации конфликтов: Применение оружия, работающего на базе искусственного интеллекта, может потенциально привести к эскалации конфликтов или гонкам вооружений между странами.
Хотя использование искусственного интеллекта в оборонных целях понятно, здесь необходимы строгие регулирования, этические соображения и международные соглашения, чтобы обеспечить ответственное использование технологии с человеческим контролем и в рамках четких юридических структур. Главное внимание должно уделяться сохранению человеческого контроля над критическими решениями, связанными с жизнью и смертью.
В конечном итоге этические последствия и риски, связанные с вооружением искусственным интеллектом, требуют тщательного обсуждения и международного сотрудничества, чтобы гарантировать, что технология служит наилучшим интересам человечества, не подвергая опасности безопасность, стабильность и этические нормы.
Проблема 4: слежка
Вы когда-то находили человека по фотографии? Возможно, утратили связь с родственником и пытались с ним связаться. Или кого-то преследовали, а социальные сети подсказывали, где его искать. Все это личные примеры, но государства по всему миру тоже пользуются технологиями для слежки.
AI Multiple:
Согласно индексу мирового наблюдения за искусственным интеллектом (AIGS), 176 стран используют системы искусственного интеллекта для наблюдения, и либеральные демократии являются основными пользователями искусственного интеллекта для наблюдения - 51% развитых демократий против 37% закрытых автократических государств. Это, вероятно, связано с разрывом в богатстве между этими двумя группами стран.
Некоторые гиганты технологической индустрии также высказывают этические опасения относительно искусственного интеллекта для наблюдения. Например, президент Microsoft Брэд Смит опубликовал сообщение в блоге, призывая к государственному регулированию технологии распознавания лиц. Кроме того, IBM прекратила предоставление технологии для массового наблюдения из-за ее потенциала для злоупотреблений, таких как расовая дискриминация, что нарушает фундаментальные права человека.
ИИ распознает не только лица, но и речь. Это, конечно, не повод для паранойи, чаще всего такие технологии используются для предотвращения противоправных действий.
Но уверены ли мы, что только для этого? Представьте страну, где очевидны проблемы со свободой слова, а инакомыслие карается законом – распознавание речи может привести к критическим последствиям. Да, любую технологию можно использовать как во благо, так и во вред. Но в таком случае ее надо строго регулировать.
Проблема 5: слепое доверие
Исследование Стэнфордом от 2022 года показало, что ИИ ошибался в 75% случаев. Прошел год, модели стали умнее, обновляются быстрее и чаще. Вероятность ошибки меньше, но она все еще существует.
Люди склонны доверять тому, что видят. Вспомните кейс с выборами в США, когда суд признал, что META делала недостаточно, чтобы бороться с фейками, которые прямым образом повлияли на выборы. Это – реальная проблема, особенно если принимать во внимание технологию дипфейк. Пока свое массовое применение она нашла в порнографии, там ее используют практически в 95% случаев, но также ее можно использовать повсеместно, в том числе и в политике, для нанесения урона чести и достоинству. Конечно, сделав ресерч, человек докопается до правды, но каково процентное соотношение людей, которые не станут “заморачиваться”?
Существует еще медицина. Уже разработан ИИ, который успешно находит в родинках следы онкологии и помогает врачам с диагнозами. Но существует вероятность того, что кто-то попросит у языковой модели народный способ лечения пневмонии. Задача компьютера – убедить человека обратиться к врачу, цена ошибки слишком высока.
С другой стороны, есть чудесная история о том как ChatGPT спас собаку.
Financial Times:
“Я предоставил чатботу фактические результаты анализов крови за несколько дней и попросил поставить диагноз”, - написал Купер в твиттере. Новая версия ChatGPT предложила сводку с предупреждением: “Я – не ветеринар, но могу попытаться помочь вам понять результаты анализов крови и то, что может происходить с вашей собакой”.
Чатбот на основе искусственного интеллекта предположил, что результаты анализов крови Сасси и ее симптомы могут указывать на иммунно-средственную гемолитическую анемию (ИСГА).
С учетом этой новой информации Купер обратился за консультацией к другому ветеринару, который подтвердил диагноз ИИ и начал лечить Сасси соответствующим образом. Благодаря быстрому диагнозу и лечению, Сасси почти полностью выздоровела.
Личный опыт редактора:
Однажды я упал в шахту лифта. Врачи поставили неверный диагноз, мне сделали три операции, когда выяснилось, что требуются еще две, чтобы все встало на свои места. Если бы я дал результаты анализов сегодняшним моделям, мог ли я ограничиться одной операцией? Также меня интересует: когда мы начнем верить компьютеру достаточно, чтобы принимать его предположения? Для себя я выбираю цифру: 95% верных диагнозов. Готов рискнуть оставшимися пятью.
Проблема 6: предрассудки
Реальная история из Amazon. Компания создала ИИ-механизм, который помогал в найме сотрудников, но через год его закрыли. В чем было дело? Разработчики не учли тот факт, что модель обучена на существующих данных о найме, поэтому компьютер игнорировал женщин – 60% от всех предложений составили мужчины.
Было ли это сделано специально? Конечно, нет. В этом и трагичность ситуации. Люди могут сделать компьютер сексистом, даже не подозревая об этом.
Пути решения проблем
У Unicef есть десять основных принципов, определяющих человеко-ориентированный подход к этике искусственного интеллекта. Они не покрывают все вопросы, но дают общее понимание отношения крупных организаций и целых стран к проблемам, которые возникают по мере развития ИИ.
Непричинение вреда
Использование систем искусственного интеллекта не должно выходить за необходимые для достижения законной цели рамки. Для предотвращения вреда должна использоваться оценка рисков.
Безопасность и защита
Необходимо избегать нежелательных рисков безопасности, а также уязвимости к атакам, связанным с системами искусственного интеллекта, это должно лежать на плечах создателей и ими же предотвращаться.
Право на конфиденциальность и защиту данных
Конфиденциальность должна быть защищена на протяжении всего жизненного цикла систем искусственного интеллекта. Также следует установить адекватные правовые рамки для защиты данных.
Мультистейкхолдерное управление и сотрудничество
Международное право и национальный суверенитет должны учитываться при использовании данных. Кроме того, необходимо участие различных заинтересованных сторон для инклюзивных подходов к управлению искусственным интеллектом.
Ответственность и подотчетность
Системы искусственного интеллекта должны поддаваться аудиту и отслеживанию. Должны быть установлены механизмы контроля, оценки воздействия, аудита и необходимой осмотрительности, чтобы избежать конфликтов с нормами прав человека и угроз окружающей среде.
Прозрачность и ясность
Этичное применение систем искусственного интеллекта зависит от их прозрачности и ясности. Уровень прозрачности должен быть соответствующим контексту, поскольку может возникать напряженность между этими показателями с другими принципами, такими как конфиденциальность, безопасность и защита.
Человеческий надзор и определение
Государства должны контролировать процесс, чтобы системы искусственного интеллекта не замещали конечную человеческую ответственность и подотчетность.
Устойчивость
Технологии искусственного интеллекта должны быть оценены по их воздействию на “устойчивость”, понимаемую как набор постоянно изменяющихся целей, включая те, которые описаны в Целях устойчивого развития ООН.
Осведомленность и грамотность
Необходимо продвигать понимание общественности об искусственном интеллекте и данных через открытое и доступное образование, гражданское вовлечение, цифровые навыки и обучение этике искусственного интеллекта.
Справедливость и недискриминация
Создатели искусственного интеллекта должны продвигать социальную справедливость, недискриминацию, обеспечивая инклюзивный подход, чтобы обеспечить доступность преимуществ искусственного интеллекта для всех.
Заключение
Статья, конечно, не раскрывает всей глубины этики и морали использования ИИ, на эту тему можно смело написать еще пару книг. Но основную мысль (или мораль сей басни) попытаемся подытожить: “Искусственный интеллект не может ответить на вопрос, на который не может ответить человек”.
Пока мы, люди, сами не найдем ответы на важные экзистенциальные вопросы, мы не будем готовы к жизни в мире, где ИИ играет одну из главных ролей. ИИ – потенциально одна из лучших вещей, что с нами случалась. Тот объем проблем, которые он способен решить, невероятен. Но при неправильном подходе ИИ может стать и худшим, что с нами случилось. Радует и пугает то, что все снова зависит от человека, и это вряд ли когда-то изменится.
Рекомендуется к прочтению
What to read next
Наш редактор Катерина уже делилась своим опытом взаимодействия с Chat GPT, но это – не мнение профессионала и исследователя. Мы решили погрузиться еще ...
Amazon запускает новый магазин «Amazon Haul» с акцентом на ультрабюджетные покупки. Здесь можно найти одежду, электронику, товары для дома и многое другое по цене до $20.
АРРФР планирует обязать банки отправлять одноразовый SMS-пароль при выдаче онлайн-кредитов. Также в мобильных приложениях появится удобный функционал ...