Создание лучших стартапов с помощью ответственного ИИ – TechCrunch


Основатели склонны думать, что ответственные методы искусственного интеллекта сложно внедрить и могут замедлить развитие их бизнеса. Они часто переходят к зрелым примерам, таким как Управление этического и гуманного использования Salesforce, и думают, что единственный способ избежать создания вредоносного продукта – это создать большую команду. На самом деле все намного проще.

Я решил узнать, как основатели думают об ответственных методах ИИ на местах, поговорив с несколькими успешными основателями на ранних этапах и обнаружил, что многие из них применяют ответственные методы ИИ.

Только так не называли. Они просто называют это «хорошим бизнесом».

Оказывается, простые методы, которые имеют смысл с точки зрения бизнеса и приводят к созданию более качественных продуктов, значительно уменьшат риск непредвиденного общественного вреда. Эти методы основаны на понимании того, что в основе успешного развертывания решения ИИ лежат люди, а не данные. Если учесть тот факт, что люди всегда в курсе событий, вы сможете построить лучший бизнес с большей ответственностью.

Думайте об ИИ как о бюрократии. Подобно бюрократии, ИИ полагается на некоторую общую политику, которой нужно следовать («модель»), которая в большинстве случаев принимает разумные решения. Однако эта общая политика никогда не может учитывать все возможные сценарии, с которыми придется справиться бюрократии – так же, как модель искусственного интеллекта не может быть обучена предвидеть все возможные входные данные.

Когда эта общая политика (или модели) терпит неудачу, непропорционально сильно страдают те, кто уже находится в маргинальном положении (классический алгоритмический пример – сомалийские иммигранты, которых помечают за мошенничество из-за их нетипичных покупательских привычек в сообществе).

Бюрократия работает над решением этой проблемы с «бюрократами с улицы», такими как судьи, агенты DMV и даже учителя, которые могут рассматривать уникальные дела или принимать решение не применять политику. Например, учителя могут отказаться от обязательного условия курса при смягчающих обстоятельствах, или судьи могут быть более или менее снисходительными при вынесении приговора.

Если какой-либо ИИ неизбежно потерпит неудачу, тогда – как в случае с бюрократией – мы должны держать людей в курсе событий и проектировать с учетом них. Как сказал мне один основатель: «Если бы я был марсианином, впервые прилетевшим на Землю, я бы подумал: люди – это обрабатывающие машины, я бы использовал их».

Независимо от того, являются ли люди операторами, дополняющими систему искусственного интеллекта, вмешиваясь в нее, когда это неясно, или пользователи выбирают, отклонять, принимать или манипулировать результатом модели, эти люди определяют, насколько хорошо любое решение на основе искусственного интеллекта будет работать в реальном мире.

Вот пять практических советов, которыми поделились основатели компаний, занимающихся ИИ, по удержанию и даже использованию людей в цикле для создания более ответственного ИИ, который также полезен для бизнеса:

Вводите ровно столько ИИ, сколько вам нужно

Сегодня многие компании планируют запускать некоторые сервисы со сквозным процессом, управляемым искусственным интеллектом. Когда эти процессы изо всех сил пытаются функционировать в широком диапазоне сценариев использования, больше всего страдают люди, которые уже маргинализированы.

Пытаясь диагностировать сбои, учредители вычитают по одному компоненту за раз, все еще надеясь максимально автоматизировать. Им следует подумать об обратном: вводить по одному компоненту ИИ за раз.

Многие процессы – даже со всеми чудесами искусственного интеллекта – по-прежнему дешевле и надежнее запускать с участием людей. Если вы создаете сквозную систему с множеством компонентов, подключенных одновременно, вам может быть трудно определить, какие из них лучше всего подходят для ИИ.

Многие основатели, с которыми мы говорили, рассматривают ИИ как способ делегировать самые трудоемкие и не требующие больших затрат задачи в их системе от людей, и они начали со всех систем, управляемых человеком, чтобы определить, что это за задачи, важные для автоматизации.

Этот подход «ИИ-второй» также позволяет учредителям вводить поля, данные по которым не доступны сразу. Люди, которые управляют частями системы, также создают те самые данные, которые вам понадобятся для автоматизации этих задач. Один основатель сказал нам, что без совета внедрять ИИ постепенно и только тогда, когда он будет явно более точным, чем оператор, они бы никогда не сдвинулись с мертвой точки.

Создайте некоторое трение

Многие основатели считают, что для достижения успеха продукт должен запускаться из коробки с минимальным вмешательством пользователя.

Поскольку ИИ обычно используется для автоматизации части существующего рабочего процесса – вместе с соответствующими предубеждениями о том, насколько можно доверять выходным данным рабочего процесса, – идеально плавный подход может иметь катастрофические последствия.

Например, когда аудит ACLU показал, что инструмент распознавания лиц Amazon ошибочно идентифицирует 28 членов Конгресса (непропорционально большая часть из которых были черными) как преступников, в основе проблемы лежали слабые настройки по умолчанию. Порог точности изначально был установлен только на 80%, что явно неверно, если пользователь принимает положительный результат за чистую монету.

Мотивация пользователей к изучению сильных и слабых сторон продукта перед его развертыванием может нейтрализовать возможность вредных несоответствий в предположениях. Это также может сделать клиентов более довольными конечными характеристиками продукта.

Один из основателей, с которым мы говорили, обнаружил, что клиенты в конечном итоге использовали их продукт более эффективно, если бы клиенту приходилось настраивать его перед использованием. Он рассматривает это как доминирующий компонент подхода «сначала дизайн» и обнаружил, что он помогает пользователям использовать сильные стороны продукта в зависимости от контекста. Хотя этот подход требовал больше времени на запуск, он в конечном итоге привел к увеличению доходов для клиентов.

Дайте контекст, а не ответы

Многие решения на основе ИИ сосредоточены на предоставлении рекомендаций по выходу. После того, как эти рекомендации сделаны, люди должны действовать в соответствии с ними.

Без контекста можно слепо следовать плохим рекомендациям, что может нанести ущерб последующим. Точно так же отличные рекомендации могут быть отклонены, если участники цикла не доверяют системе и не имеют контекста.

Вместо того, чтобы делегировать решения пользователям, подумайте о том, чтобы дать им инструменты для принятия решений. Этот подход использует возможности людей в цикле для выявления проблемных выходных данных модели, обеспечивая при этом поддержку со стороны пользователя, необходимую для успешного продукта.

Один из основателей поделился, что, когда их ИИ давал прямые рекомендации, пользователи ему не доверяли. Их клиенты были довольны точностью предсказаний их моделей, но отдельные пользователи просто игнорировали рекомендации. Затем они отказались от функции рекомендации и вместо этого использовали свою модель для увеличения ресурсов, которые могли бы информировать пользователя о решении (например, эта процедура похожа на эти пять прошлых процедур, и вот что сработало). Это привело к увеличению количества пользователей и доходов.

Учитывайте своих не-пользователей и не-покупателей

Это известная проблема корпоративных технологий: продукты могут легко служить генеральному директору, а не конечным пользователям. Это еще более проблематично в сфере искусственного интеллекта, где решение часто является частью более крупной системы, которая взаимодействует с несколькими прямыми пользователями и многими другими косвенными пользователями.

Возьмем, к примеру, споры, возникшие, когда Starbucks начала использовать программное обеспечение для автоматического планирования смен. Планировщик оптимизирован для повышения эффективности, полностью игнорируя условия работы. После успешной подачи петиции о трудоустройстве и публикации громкой статьи в New York Times, вклад бариста был принят во внимание, что повысило моральный дух и производительность.

Вместо того, чтобы буквально рассказывать клиентам о том, что они просят вас решить, подумайте о том, чтобы обозначить все заинтересованные стороны и понять их потребности. до вы решаете, что ваш ИИ поможет оптимизировать. Таким образом вы избежите непреднамеренного создания излишне вредного продукта и, возможно, найдете еще лучшую возможность для бизнеса.

Один из основателей, с которым мы разговаривали, принял этот подход близко к сердцу, разбив лагерь рядом со своими пользователями, чтобы понять их потребности, прежде чем решить, для чего оптимизировать свой продукт. Затем они встретились как с клиентами, так и с представителями профсоюзов, чтобы выяснить, как сделать продукт, который работал бы для обоих.

В то время как клиенты изначально хотели продукт, который позволил бы каждому пользователю взять на себя большую рабочую нагрузку, эти разговоры показали возможность разблокировать экономию для своих клиентов за счет оптимизации существующей рабочей нагрузки.

Это понимание позволило основателю разработать продукт, который расширил возможности людей, участвующих в процессе. а также сэкономили руководству больше денег, чем могло бы дать решение, которое, как они думали, они хотели.

Будьте ясны в том, что такое театр искусственного интеллекта

Если вы ограничите степень преувеличения возможностей своего ИИ, вы сможете избежать безответственных последствий и более эффективно продавать свой продукт.

Да, ажиотаж вокруг ИИ помогает продавать товары. Однако очень важно знать, как не допустить, чтобы эти модные словечки мешали точности. Хотя разговоры об автономных возможностях вашего продукта могут быть полезны для продаж, это может иметь неприятные последствия, если вы примените эту риторику без разбора.

Например, один из основателей, с которым мы говорили, обнаружил, что использование возможностей искусственного интеллекта также усиливает обеспокоенность клиентов по поводу конфиденциальности. Это беспокойство сохранялось даже тогда, когда основатели объяснили, что части рассматриваемого продукта не основывались на данных, а, скорее, на человеческом суждении.

Выбор языка может помочь согласовать ожидания а также укрепить доверие к продукту. Некоторые из основателей, с которыми мы разговаривали, не использовали язык автономии для своих пользователей, они обнаружили, что такие слова, как «расширение» и «помощь», с большей вероятностью вдохновят на принятие. Такое построение «ИИ как инструмента» также с меньшей вероятностью вызовет слепое доверие, которое может привести к плохим результатам в будущем. Четкость может не только убедить вас в чрезмерной уверенности в искусственном интеллекте, но и помочь вам продавать.

Это некоторые практические уроки, извлеченные настоящими основателями для снижения риска непредвиденного ущерба от ИИ и создания более успешных продуктов, рассчитанных на долгую перспективу. Мы также считаем, что у новых стартапов есть возможность создавать сервисы, которые помогают упростить создание этичного ИИ, который также полезен для бизнеса. Итак, вот пара запросов для стартапов:

  • Вовлекайте людей в петлю: Нам нужны стартапы, которые решают проблему внимания «человек в петле». Чтобы делегировать полномочия людям, необходимо убедиться, что эти люди замечают, когда ИИ неуверен, чтобы они могли осмысленно вмешаться. Если ИИ верен в 95% случаев, исследования показывают, что люди успокаиваются и вряд ли поймают 5% случаев, когда ИИ ошибается. Решение требует больше, чем просто технологии; Подобно тому, как социальные сети были скорее психологической инновацией, чем технической, мы думаем, что стартапы в этой сфере могут (и должны) возникать на основе социальных идей.
  • Соответствие стандартам для ответственного ИИ: Есть возможность для стартапов, которые консолидируют существующие стандарты вокруг ответственного ИИ и измеряют соответствие. Публикация стандартов ИИ росла в последние два года, поскольку общественное давление на регулирование ИИ усиливается. Недавний опрос показал, что 84% американцев считают, что ИИ следует тщательно контролировать, и считают это главным приоритетом. Компании хотят дать понять, что они относятся к этому серьезно, и было бы полезно продемонстрировать, что они следуют стандартам, установленным IEEE, CSET и другими. Между тем, в текущем проекте обширного закона ЕС об искусственном интеллекте (AIA) особо выделяются отраслевые стандарты. Если AIA пройдет, соблюдение требований станет необходимостью. Учитывая рынок, который сформировался вокруг соблюдения GDPR, мы думаем, что это место для наблюдения.

Независимо от того, используете ли вы один из этих советов или создаете одну из этих компаний, простые и ответственные методы искусственного интеллекта могут позволить вам открыть огромные возможности для бизнеса. Чтобы избежать создания вредоносного продукта, вам нужно внимательно подходить к развертыванию ИИ.

К счастью, эта внимательность принесет дивиденды, когда дело доходит до долгосрочного успеха вашего бизнеса.



Переведено на русский

Поделитесь этой информацией с тем, кому это может быть интересно:
0 0 голоса
Рейтинг статьи
Подписаться
Уведомить о
guest
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии