banner

Блог

Aug 05, 2023

6 проблем машинного обучения, с которыми сталкивается бизнес

Getty Images/iStockphoto

Машинное обучение обещает понимание, которое может помочь компаниям улучшить поддержку клиентов, бороться с мошенничеством и предвидеть спрос на продукты или услуги.

Но внедрение технологии – и реализация ожидаемых преимуществ – может оказаться, по меньшей мере, трудной задачей. В игру вступают острые вопросы внедрения любого нового инструмента: среди препятствий стоят недостаточные инвестиции и отсутствие признания со стороны пользователей. Но организации, внедряющие машинное обучение (МО), должны решать еще более широкий круг проблем: от этики до эпистемической неопределенности.

Вот шесть проблем ML, которые предприятиям следует учитывать:

Организации берут на себя определенный риск при использовании новых технологий. В случае с отмыванием денег потенциальные опасности выглядят огромными и имеют тенденцию быть многоаспектными.

«Самые большие проблемы, которые мы наблюдаем и над которыми работают все организации, на самом деле связаны с этическими проблемами, проблемами безопасности, экономическими проблемами и юридическими соображениями», — сказал Закир Хуссейн, руководитель отдела данных по Америке в консалтинговой компании EY. «Об этих четырех, как правило, постоянно спрашивают многие наши клиенты».

Предвзятость в моделях МО входит в число главных этических проблем. Например, данные, используемые для обучения таких моделей, могут не включать данные, репрезентативные для всех групп людей в пределах данной совокупности. Полученная модель будет давать систематически предвзятые результаты.

Что касается безопасности, пользователям машинного обучения приходится решать несколько проблем. К ним относятся ученые, работающие с данными, которые потенциально загружают вредоносное ПО вместе с моделями с открытым исходным кодом, которые они планируют настроить, а также быстрые инженерные атаки, сказал Дэвид Фригери, управляющий директор Slalom и руководитель практики искусственного интеллекта и машинного обучения в Филадельфии. Slalom — консалтинговая фирма, специализирующаяся на стратегии и технологиях.

Он также упомянул «отравление данных» — атаку, при которой злоумышленник проникает в данные обучения компании, чтобы повлиять на результаты аналитики или выходные данные модели.

Проблемы безопасности переплетаются с более широкими проблемами доверия, особенно с аспектом создания контента с помощью генеративного ИИ. «В некоторых случаях вы не всегда можете доверять контенту, который [ИИ] создал для вас», — сказал Фригери. «Должны быть какие-то сдержки и противовесы, чтобы выяснить, чему вы можете доверять, а чему нет».

Тем временем экономические проблемы вращаются вокруг проблем на рабочих местах, и, по оценкам Хуссейна, ИИ, как ожидается, повлияет на 300 миллионов рабочих мест. Он отметил, что некоторые компании уже прекратили нанимать людей на должности, на которых, по их мнению, ИИ может выполнять эту работу.

Что касается юридической сферы, Хуссейн указал на случай с адвокатом из Нью-Йорка, который использовал ChatGPT для составления заключения. Инструмент искусственного интеллекта составил юридические цитаты, что подчеркивает, как технология может галлюцинировать и вносить ошибки.

По словам Хуссейна, организации, внедряющие ОД, должны решать такие проблемы напрямую. Меры, которые помогают снизить риск, включают установление четких этических принципов и управления, придание приоритета качеству данных, упор на справедливость при разработке моделей и обеспечение объяснимости моделей, добавил он.

Спеша построить модели, организации могут обойти сложную задачу формулирования проблемы, которую можно решить с помощью ML.

«Мы начинаем разговор с нашими клиентами с простой идеи любить проблему», — сказал Фригери. «Слишком часто люди очаровываются решением, прежде чем полностью понимают, качественно и количественно, в чем состоит проблема».

Проекты испаряются, когда организациям не удается выбрать сильного кандидата на проблемы ML. Если выбранная проблема не сдвинет с места пресловутую иглу, доказательства концепции будут недостаточно обеспечены ресурсами и не смогут обеспечить «обучение или практическую реализацию», отметил Фригери.

Организациям, которые изо всех сил пытаются сформулировать проблему, также будет сложно придумать подходящие варианты использования, что затруднит развертывание. Более половины из 200 корпоративных стратегов, опрошенных Gartner, назвали «определение четкого варианта использования» главным препятствием при внедрении новых технологий. В отчете исследовательской фирмы за июль 2023 года отмечается, что только 20% стратегов использовали инструменты, связанные с искусственным интеллектом, такие как машинное обучение.

ДЕЛИТЬСЯ