Просмотров 6
С увеличением объёмов информации, которые растут стремительно, увеличивается и та доля точности, которой приходится жертвовать. В таком случае неизбежно встаёт вопрос о том, не попадает ли в процент неточных данных важная информация, и где та критическая точка, за которой ущерб от неточности превысит пользу от скорости обработки. Ответ на эти вопросы упирается в проблему прозрачности принятия решений ИИ. Суть проблемы заключается в том, что большинство пользователей не понимает процессов, на основании которых ИИ делает свой выбор, вследствие вышеупомянутой когнитивной экономии. Похожая ситуация давно существует в науке, особенно в междисциплинарных областях, когда, например, когнитивисты используют данные нейробиологов, не всегда понимая принципы и методики их получения. Однако в философии науки проблема прозрачности решается за счёт системы цитирований, обсуждений на форумах и конференциях, рецензирования публикаций и ещё целого ряда выработанных веками механизмов. В сфере ИИ вследствие её молодости и высокой технологичности актуальность вопроса прозрачности только увеличивается.
Проблема прозрачности ИИ – это ещё и вопрос доверия к социальным институтам, использующим его инструменты. Сегодня технологии ИИ используются в правоохранительной системе, здравоохранении и других ключевых для жизни общества сферах. Цена допустимой ошибки, изначально закладываемой в пока ещё несовершенные механизмы ИИ, в таких институтах может быть слишком высокой. Чтобы заинтересованные стороны доверяли ИИ принятие эффективных и справедливых решений в их интересах, им необходимо либо знать, как работают модели и логика алгоритмов, либо иметь надёжные экспертные источники, которые смогут оценить это за них. Им также необходимо знание о данных, используемых для обучения и настройки модели, включая их источники и то, как эти данные обрабатываются, взвешиваются и маркируются. Помимо укрепления доверия, прозрачность ИИ способствует обмену знаниями и сотрудничеству во всей экосистеме ИИ, способствуя общему прогрессу в данной области.
В ряду факторов, повышающих прозрачность работы ИИ, можно выделить следующие:
– объяснимость – включает в себя предоставление доступных объяснений того, как система ИИ принимает решения, особенно когда эти решения критичны для человека. Целью объяснимости для конечных пользователей систем ИИ является повышение доверия к системам, однако здесь наблюдается определённое противоречие. Человек ищет объяснений алгоритмов именно из-за недоверия к ним. Как только основания принятия решений проясняются, пользователь прекращает поиск объяснений и переходит к доверию ИИ до тех пор, пока критичная ошибка не простимулирует его к новому поиску объяснений, однако последствия ошибки к этому моменту уже могут быть необратимы;
- прослеживаемость – обеспечение возможности отслеживания и аудита разработки и развертывания систем ИИ. Важно понимать, кто является создателем конкретной используемой системы, поскольку в современном мире функционируют тысячи компаний, поставляющих различные модели ИИ. Оставив в стороне юридическую составляющую вопроса, публикуемая информация о целях и технологиях этих компаний не всегда полна и точна. Такая неполнота может быть как умышленной (например, компания скрывает использование субъективных предпочтений пользователя для таргетирования рекламы), так и неумышленной (так, одна из главных проблем прослеживаемости – беспорядочное хранение данных, когда команды разработчиков хранят информацию в разных местах, не организуя ее должным образом, что делает практически невозможным выяснение того, откуда она взялась);
- коммуникация – полноценное информирование участников взаимодействия с ИИ о его возможностях, ограничениях и потенциальном влиянии. Возможности ИИ велики, сфера применения становится всё шире, однако ИИ далеко не безошибочен, причём ошибаться может в моментах, человеку кажущихся элементарными. Примером здесь могут служить многочисленные попытки нейросетей нарисовать человека с шестью пальцами руки. Дело в том, что ИИ обучаются на уже существующих фотографиях и изображениях, на которых количество пальцев не всегда очевидно – они сливаются, бывают закрыты предметами, находятся на заднем фоне, а потому размыты, и т. п. Компании, создающие нейросетевые модели, не заинтересованы в демонстрации недостатков и ограничений ИИ, что приводит к проблеме недостаточной коммуникации между производителем и потребителем в ущерб последнему;
- управление – создание стандартов и установление ответственности при разработке и развертывании ИИ. Говоря об ответственности, в первую очередь речь идёт о её морально-этической стороне, однако следствием моральных норм должны становиться юридические. В большинстве стран законодательная база, регулирующая применение ИИ, на данный момент отсутствует. Так, в Российской Федерации законодательно регулируются лишь некоторые юридические аспекты, такие как защита персональных данных (ФЗ-152 «О персональных данных») либо общие стратегические тенденции развития данной сферы (Указ Президента № 490 «О развитии ИИ в РФ»). В число регуляторных проблем входят неопределённый правовой статус ИИ, обязательность маркировки ИИ-контента, вопросы задействования ИИ в целях манипулирования человеческим сознанием, как индивидуальным, так и групповым, а также ряд других вопросов, переходящих из области философско-этического осмысления в юридическую плоскость. Управление ИИ включает в себя проблему подотчётности – формирования конкретных правовых механизмов, позволяющих привлекать системы ИИ и их разработчиков к ответственности за свои действия;
- обеспечение непредвзятости (также может быть сформулировано как борьба с предвзятостью) – постановка в качестве одной из задач ИИ представления и принятия разносторонней перспективы, недопущение отказа от альтернативных точек зрения. В человеческом культурном пространстве зачастую присутствуют и даже доминируют предвзятые мнения, социальные стереотипы, ограничивающие вариативность мировоззрения. Точка зрения человека редко бывает нейтральной, она может противоречить здравому смыслу. В основе такой ограниченности лежит уже упоминавшийся принцип экономии когнитивных ресурсов человека. Возможности ИИ в области обработки информации гораздо шире, вычислительные мощности больше, потенциал их роста несравненно выше, поскольку возможности человека упираются в физиологические ограничения, устранение которых естественным эволюционным путём происходит ничтожно медленно. ИИ может и должен использоваться в качестве инструмента искусственного преодоления биологической ограниченности человеческого мозга, однако вместо этого он зачастую лишь усиливает их. Данная проблема произрастает из двух оснований: структуры самой модели ИИ и массива данных, используемых для её обучения. Первый аспект отражает сознательные и бессознательные предпочтения и предвзятости создателей данной модели: разработчики-люди субъективны и переносят свои субъективные предпочтения в ИИ-модель. Второй аспект, касающийся данных для обучения, основан на выборе как примеров информации в целом, так и их разделении на удачные и неудачные. Например, модель первичного отбора при трудоустройстве может расценивать как более успешные случаи найма в персонал компании мужчин, если большинство штата – мужчины. Более того, даже если в алгоритме прямо прописать запрет на дискриминацию по графе «пол» или не указывать его в анкете, ИИ способен ориентироваться на косвенные признаки, и кандидат с хобби «футбол» получит предпочтение перед кандидатом с хобби «изготовление украшений из бисера». Оба основания предвзятости устраняются просто, но долго и дорого – путём увеличения объёма материала обучения, его тщательного отбора и коррекции как можно более разносторонней командой тестировщиков.
01 Июн 2025 в 14:59. В рубриках: Философская антропология, философия культуры. Автор: krisВы можете оставить свой отзыв или трекбек со своего сайта.