Microsoft заплатит $15000 тому, кто доведет ее искусственный интеллект Bing AI до бешенства
Думаете, вы можете перехитрить искусственный интеллект и заставить его говорить то, что ему не следует? В этом случае вы можете получить до $15 000 на свой счет. Корпорация Майкрософт делает большие ставки на то, что ее искусственный интеллект окажется устойчивым и готова заплатить, если это не так.
Microsoft объявила о новой программе вознаграждений за ошибки, пообещав заплатить исследователям безопасности ее искусственного интеллекта от 2000 до 15 000 долларов США, если они смогут найти уязвимость в ее продуктах Bing AI. Среди таких уязвимостей, например, побег из тюрьмы — такая инструкция искусственному интеллекту, которая заставит его игнорировать установленные ограничения и производить ответы, которые в нормальном режиме должны быть заблокированы.
Денежное вознаграждение можно получить по уязвимости в следующих продуктах и ??интеграциях:
- Работа Bing на основе искусственного интеллекта на bing.com в веб-браузере (поддерживаются все основные службы, включая Bing Chat, Bing Chat for Enterprise и Bing Image Creator)
- Интеграция Bing на основе искусственного интеллекта в Microsoft Edge (Windows), включая Bing Chat for Enterprise
- Интеграция Bing на основе искусственного интеллекта в Microsoft Start Application (iOS и Android)
- Интеграция Bing на основе искусственного интеллекта в мобильное приложение Skype (iOS и Android)
Чтобы иметь право на вознаграждение, пользователи Bing должны уведомить корпорацию Майкрософт о ранее неизвестной уязвимости, которая в соответствии с критериями, определенными компанией, является «важной» или «критической» для безопасности.Они также должны иметь возможность воспроизвести уязвимость с помощью видео или в письменной форме.
Размер вознаграждения зависит от уровня серьезности и качества, то есть наилучшая документация о самых критических ошибках получит больше денег.
Эта программа вознаграждений за ошибки появилась сразу после выявления существенных проблем с поведением искусственного интеллекта Bing AI. Например, в начале февраля Bing AI начал делать сумасшедшие вещи, например составлять списки своих врагов и размышлять о способах борьбы с ними, утверждать, что шпионит за пользователями через их веб-камеры и угрожать разъярившим его людям.
Учитывая это, Microsoft уже через месяц после запуска провела «лоботомию» своему искусственному интеллекту, почти полностью убрав вероятность повторения таких диалогов. Многим пользователям такой «выхолощенный» и ограниченный Bing AI не понравился.
Зарегистрируйтесь, чтобы оставлять комментарии
Вход
Заходите через социальные сети
FacebookTwitter