Сегодня 02 июня 2025
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → риск

Представители игровой индустрии испугались, что внедрение ИИ в играх может обернуться катастрофой

Игровые издательства, как отмечает Bloomberg со ссылкой на отчётность видных представителей отрасли в лице Take-Two Interactive и Electronic Arts, весьма настороженно относятся к оценке воздействия искусственного интеллекта на свою деятельность. По их мнению, ИИ несёт репутационные риски для бизнеса, поскольку любители игр весьма неоднозначно относятся к применению данной технологии в этой сфере.

 Источник изображения: Nvidia

Источник изображения: Nvidia

В годовом отчёте Take-Two по форме 10-K отмечается следующее: «Разработка и использование искусственного интеллекта в наших продуктах могут представлять операционные и репутационные риски». Как поясняет издатель, внедрение ИИ в играх влечёт социальные и этические проблемы, которые могут вылиться в судебные разбирательства и нанести ущерб репутации компании. Помимо этого, издатель опасается столкнуться с негативным восприятием нововведений, связанных с ИИ, со стороны пользователей. В отчёте Electronic Arts попутно упоминается тезис о том, что применение ИИ в играх должно осуществляться очень осторожно.

Аудитория любителей игр порой весьма критически оценивает попытки издателей и разработчиков найти применение в своей работе генеративному искусственному интеллекту. Недавно попытка Sony нанять художника с навыками работы с искусственным интеллектом вызвала большой общественный резонанс. Первые попытки разработчиков поручить ИИ разработку игровых персонажей и их озвучку также наталкиваются на шквал критики. В игре Fortnite, например, появился Дарт Вейдер (Darth Vader), который общался голосом покойного актёра Джеймса Эрла Джонса (James Earl Jones), воссозданным при помощи генеративного искусственного интеллекта, и это стало причиной скандала.

Внедрение ИИ в играх угрожает потерей рабочих мест представителями отрасли, а также повышает нагрузку на окружающую среду за счёт потребности в мощных вычислительных средствах. Серьёзной проблемой могут стать претензии в области авторских прав, если искусственный интеллект возьмёт за основу интеллектуальную собственность стороннего правообладателя.

Кроме того, любители игр предпочитают взаимодействовать в окружении, которое было создано живыми людьми, тем самым косвенно выстраивая диалог с разработчиками, и данная потребность довольно сильна, чтобы внедрение искусственного интеллекта могло нарушить традицию. Даже генерируемый ИИ визуальный фон может стать причиной раздражения любителей игр, если будет создавать ощущение неестественности.

ИИ не является единственным новшеством последних лет, которое не прижилось в игровой индустрии. На волне популярности технологий блокчейна разработчики и издатели пытались внедрить в игры NFT-токены, но подобные инициативы столкнулись с сопротивлением аудитории и быстро себя изжили. Игровая отрасль замедляет свой рост, а затраты на создание игр растут, поэтому в сложных для ведения бизнеса условиях компании предпочитают минимизировать риски, и теперь ИИ относится к их числу.

Nvidia, Microsoft и Meta✴ предупредили инвесторов о рискованности ставки на ИИ

Последнее время отчёты о финансовых результатах технологических компаний звучат как реклама искусственного интеллекта (ИИ). Руководители крупных ИТ-компаний последние полтора года докладывают о том, как успешно они работают в этом направлении. Однако со ставкой на ИИ связаны и большие риски. И к сожалению, о них говорят не так громко, отметил Bloomberg.

 Источник изображения: flutie8211/Pixabay

Источник изображения: flutie8211/Pixabay

Если ознакомиться с разделом «Факторы риска» финансовых отчётов, направляемых компаниями в Комиссию по ценным бумагам и биржам США (SEC), то можно увидеть грозные предупреждения о существующих рисках, связанных с развёртыванием технологий ИИ. По данным Bloomberg, в этом году по меньшей мере десяток крупных технологических компаний выпустил или обновил предупреждения, связанные с ИИ, в своих финансовых отчётах.

Например, компания Meta Platforms заявила, что её технология ИИ может быть использована для создания дезинформации во время выборов, что приведёт к негативной реакции населения. Корпорация Microsoft утверждает, что может столкнуться с исками об авторских правах, связанных с обучением ИИ-моделей и результатами работы ИИ. Корпорация Oracle предупредила, что её продукты ИИ могут работать не так хорошо, как ИИ-решения конкурентов.

В этом разделе компании описывают, что может пойти не так, пытаясь предотвратить будущие судебные иски акционеров. В последние годы, например, реализовались такие риски, как изменение климата, военные действия в различных регионах, а также крах банка Кремниевой долины.

Предупреждения представляют собой трезвую оценку рисков в противовес безудержной пропаганде ИИ. В частности, Alphabet, материнская компания Google, сообщила, что использование её инструментов ИИ «может негативно повлиять на права человека, конфиденциальность, занятость или другие социальные проблемы», что приведёт к судебным искам или финансовым потерям.

Как отметил Bloomberg, нередко предупреждения, указанные в этом разделе, противоречат официальной линии компании. Adobe Inc. уже давно утверждает, что её программы, такие как Photoshop, останутся главными для творческих профессионалов на протяжении многих лет. Но ранее в этом году компания добавила в раздел «Факторы риска» предупреждение о том, что распространение ИИ может ударить по занятому в отрасли персоналу и, как следствие, спросу на её ПО.

Вовсе не факт, что указанные факторы рисков реализуются, но время от времени это случается. Корпорация Nvidia с начала 2023 года высказывала опасения по поводу того, что неправильное использование ИИ может привести к ограничениям на её продукты. И это действительно произошло — поставки передовых ускорителей компании в Китай попали под запрет. Более того, после того как в прошлом году администрация Байдена ужесточила экспортные ограничения на передовые компьютерные чипы, Nvidia обновила свои документы, указав, что ограничения могут продолжать расширяться. И в итоге в мае Bloomberg сообщил, что США замедляют процедуру одобрения экспорта чипов на Ближний Восток.

В число компаний, которые в этом году добавили в отчётах новые факторы риска, связанные с ИИ, вошли Palo Alto Networks, Dell Technologies и Uber Technologies. В большинстве случае компании указывают факторы риска, чтобы не стать объектом судебных исков. И большую часть дополнений можно свести к следующему: если что-то с ИИ пойдёт не так, мы вас предупреждали, подытожил Bloomberg.

Для Samsung нежелание рисковать становится главной угрозой в борьбе с конкурентами

Южнокорейский гигант Samsung Electronics при прежнем руководителе и сыне основателя Ли Гон Хи (Lee Kun-hee) ещё мог продвигать инновационные решения, которые позволяли компании обходить многих конкурентов на технологическом уровне, но сейчас, по мнению некоторых сотрудников, техническому прогрессу начинает препятствовать излишняя осторожность руководителей, которые буквально боятся рисковать.

 Источник изображения: Samsung Electronics

Источник изображения: Samsung Electronics

Всё это, по мнению Nikkei Asian Review, способствует утрате конкурентных позиций компанией Samsung Electronics. В публикации приводится пример с рационализаторским предложением одного из инженеров, которое было призвано повысить уровень выхода годной продукции при производстве чипов. Обратившись с предложением к начальнику прошлой осенью, он получил отказ в его внедрении, поскольку руководство не готово брать на себя риск и делать первый шаг, а новые технологии готов внедрять только в том случае, если уже существуют прецеденты их успешного применения.

В современной корпоративной структуре Samsung Electronics, как отмечает издание, проблемой является и практика заключения контрактов с руководящим составом только на один год. При этом руководителям с более верхнего уровня доводятся целевые показатели деятельности подразделений, которые должны быть достигнуты за год. При такой расстановке приоритетов компания просто сосредотачивается на решении каких-то краткосрочных задач, а долгосрочные исследования в итоге остаются без должного внимания и лишают компанию инновационного развития.

Samsung уже отстаёт от более мелкой SK hynix в сфере разработки памяти семейства HBM, которая сейчас востребована в сегменте систем искусственного интеллекта. Соперничать с конкурентами в сегменте дисплеев ей тоже становится всё сложнее. Наконец, Apple недавно на какое-то время вырвала у Samsung статус крупнейшего производителя смартфонов, хотя корейской компании по итогам февраля удалось добиться реванша. По мнению экспертов, склонность избегать риски нынешним руководством Samsung будет способствовать дальнейшей деградации компании, если ничего не менять в этой сфере. Впрочем, следует помнить, что внук основателя и фактический глава Samsung Ли Джэ Ён (Lee Jae-yong) провёл в тюремном заключении и под следствием несколько лет, на протяжении которых его заместители не решались принимать важные стратегические решения, и эта инерция будет сказываться на бизнесе компании ещё какое-то время даже после того, как Ли Джэ Ён окончательно утвердился в статусе главы компании и освобождён от уголовных обвинений.

OpenAI создала команду по изучению «катастрофических» угроз ИИ, вплоть до ядерной

Ответственная за сервис ChatGPT компания OpenAI сообщила, что сформировала подразделение по оценке и исследованию моделей искусственного интеллекта на предмет защиты от того, что характеризуется как «катастрофические риски».

 Источник изображения: Growtika / unsplash.com

Источник изображения: Growtika / unsplash.com

Команду под названием Preparedness («боеготовность») возглавил директор Центра развёртываемого машинного обучения при Массачусетском технологическом институте Александр Мадри (Aleksander Madry) — по данным профессиональной соцсети LinkedIn, он занял этот пост в компании ещё в мае. В задачи подразделения входит отслеживание, прогнозирование и защита от опасностей, которые несут перспективные системы ИИ — от их дара убеждения (как в случае с составлением фишинговых писем) до генерации вредоносного кода. Некоторые из категорий угроз пока, к счастью, не обозначились в реальном поле: к ним отнесли химические, биологические, радиационные и ядерные.

Гендиректор OpenAI Сэм Альтман (Sam Altman) неоднократно выражал опасения, что ИИ способен «привести к вымиранию человечества», и формирование в компании соответствующего подразделения отражает эту позицию. Компания открыта и для изучения «менее очевидных» областей риска ИИ, добавил господин Альтман. Связаться с компанией для изложения своих опасений может любой желающий — авторы десяти лучших работ получат денежный приз в размере $25 тысяч или работу в OpenAI. «Представьте, что мы предоставили вам неограниченный доступ к моделям OpenAI Whisper (расшифровка речи), Voice (преобразование текста в речь), GPT-4V и DALLE·3, а вы оказались злодеем. Рассмотрим наиболее уникальные, хотя и, вероятно, потенциально катастрофически неправильные сценарии использования модели», — говорится в одном из конкурсных вопросов.

Подразделению Preparedness будет поручено сформулировать «политику разработки с учётом угроз» — документ с подробным описанием подхода OpenAI к построению инструментов оценки и мониторинга моделей ИИ, действий по снижению угроз, а также структуры управления для надзора в процессе развития моделей. Специалисты команды дополнят прочие аспекты работы OpenAI в области безопасного ИИ, уделяя особое внимание этапам до и после развёртывания модели.

Альтман и Илья Суцкевер (Ilya Sutskever), главный научный сотрудник и соучредитель OpenAI, убеждены, что ИИ с уровнем сознания выше человеческого может появиться в ближайшие десять лет, и не факт, что этот ИИ будет доброжелательным. Поэтому компания считает необходимым изучать возможности по его ограничению.


window-new
Soft
Hard
Тренды 🔥
Надёжный инсайдер: Ubisoft дала зелёный свет The Crew 4 15 мин.
«Базис» и СберТех обеспечат бизнесу удобную и устойчивую инфраструктуру 25 мин.
Java отметила 30-летие — это по-прежнему один из популярнейших языков программирования 2 ч.
«Если будем распыляться, у нас ничего не выйдет»: CD Projekt останется верна большим RPG вроде The Witcher 4 и Cyberpunk 2, несмотря на соблазны 2 ч.
Выручка ИИ-стартапа Anthropic достигла $3 млрд в годовом выражении, но до OpenAI ещё далеко 3 ч.
Разработчик Bulletstorm и Gears of War: E-Day остановил производство двух секретных игр — в People Can Fly пройдут новые увольнения 4 ч.
Грядущая конференция Apple WWDC для разработчиков будет скудна на новости в сфере ИИ 8 ч.
Valorant получит долгожданный просмотр сыгранных матчей и переедет на Unreal Engine 5 до конца 2025 года 13 ч.
На долю взлома аккаунтов на «Госуслугах» приходится 90 % от общего числа преступлений с неправомерным доступом к данным 01-06 07:04
Старые устройства Apple получают обновления безопасности спустя годы, вопреки официальным срокам поддержки 01-06 06:14
Минцифры урезало госфинансирование отечественных базовых станций: из 46 млрд рублей осталось только 20 млрд 7 мин.
Вышла плата Banana Pi BPI-R4 Pro для маршрутизаторов с Wi-Fi 7, 2.5/10GbE-портами и пятью слотами M.2 35 мин.
МТС заменит «зоопарк устаревшего оборудования» на отечественное — на это потратят 22 млрд рублей 36 мин.
Принадлежащая Alibaba турецкая Trendyol Group построит ЦОД на 48 МВт в Анкаре 38 мин.
Blue Origin свозила на границу космоса ещё шесть туристов на ракете New Shepard 3 ч.
Новая статья: Сравнительный тест камер флагманских смартфонов (2025): Apple iPhone 16 Pro Max, HONOR Magic 7 Pro, HUAWEI Mate 70 Pro, Samsung Galaxy S25 Ultra, vivo X200 Pro, Xiaomi 15 Ultra 11 ч.
Новая статья: Тест-драйв российского электромобиля «Атом»: гибрид «Оки» и Tesla 13 ч.
Трамп отозвал кандидатуру Джареда Айзекмана на пост главы NASA — в этом замешан Илон Маск 20 ч.
xMEMS готовит ультразвуковые кулеры µCooling для E3.S и M.2 SSD 22 ч.
SpaceX вывела на орбиту очередную партию спутников Starlink и снова посадила первую ступень носителя 01-06 07:50
OSZAR »