Google и AI на границе США: очередной прокол или просто неудачный пиар?

Google и AI на границе США: очередной прокол или просто неудачный пиар?

Друзья, снова здравствуйте! Сегодня у нас на повестке дня – очередной Google-фурор, связанный с искусственным интеллектом. И если раньше мы обсуждали самоуправляемые автомобили или умные колонки, то теперь ситуация куда серьезнее и, прямо скажем, этическая составляющая здесь зашкаливает.

По слухам, Google Cloud предоставляет свои услуги для проекта, цель которого – использование искусственного интеллекта для поимки так называемых «мулов» – людей, перевозящих контрабанду через границу США. Звучит, конечно, как из боевика, но, увы, это реальность. И главный вопрос здесь не в эффективности самой технологии (хотя и об этом можно поспорить), а в моральной стороне вопроса.

Даже если предположить, что Google не участвует непосредственно в разработке системы слежки и идентификации предполагаемых преступников, сам факт предоставления облачных сервисов вызывает множество вопросов. Ведь Google, как крупнейшая технологическая компания, несет определенную ответственность за то, как используются ее технологии. И в данном случае, риск негативного освещения для компании, мягко говоря, очень велик.

Torero XO Самая Быстрая Машина В GTA?

Torero XO Самая Быстрая Машина В GTA?

Это, конечно, не первый случай, когда Google оказывается в центре этических дебатов, связанных с применением ИИ. Вспомним историю с Project Maven, проектом Пентагона, использовавшим технологии Google для анализа видеоматериалов с беспилотников. Тогда компания столкнулась с огромной волной критики и в итоге отказалась от проекта. История повторяется, и это, прямо скажем, не очень хорошая тенденция.

Ситуация с границей США – это еще один пример того, как технологии двойного назначения могут использоваться не только для добра, но и для репрессий. И Google, похоже, снова заигрывает с огнем, позволяя своим технологиям быть использованными для целей, противоречащих общечеловеческим ценностям. Что ж, ждем развития событий и надеемся, что Google все же примет меры, чтобы избежать еще одного PR-катастрофы.

Кстати, вспомнил забавную историю. Однажды я работал над проектом по распознаванию лиц для, казалось бы, безобидного приложения для поиска потерянных животных. Заказчик настаивал на максимальной точности, и я, как честный программист, настроил алгоритм так, чтобы он отличал даже самые незначительные детали. Результат превзошел все ожидания! Программа с легкостью определяла породу собаки по фотографии ее задницы! Клиент был в восторге, а я – в легком шоке. Вот так иногда непредсказуемо работает искусственный интеллект.

Еще одна история. Мы разрабатывали чат-бота для одной туристической компании. Идея была простая: бот должен отвечать на вопросы туристов о достопримечательностях. Но в процессе тестирования выяснилось, что бот, получив вопрос «Где лучше всего поесть?», начинал генерировать отзывы о ресторанах, включая забавные и нередко нецензурные комментарии, найденные им в интернете. Мы долго искали причину, оказалось, бот просто неправильно интерпретировал некоторые части запроса. В итоге решили переписать все с нуля! Вот так шутки с AI могут дорого обойтись.

Оставьте комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Прокрутить вверх