Сегодня 01 июня 2025
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → риск

Представители игровой индустрии испугались, что внедрение ИИ в играх может обернуться катастрофой

Игровые издательства, как отмечает Bloomberg со ссылкой на отчётность видных представителей отрасли в лице Take-Two Interactive и Electronic Arts, весьма настороженно относятся к оценке воздействия искусственного интеллекта на свою деятельность. По их мнению, ИИ несёт репутационные риски для бизнеса, поскольку любители игр весьма неоднозначно относятся к применению данной технологии в этой сфере.

 Источник изображения: Nvidia

Источник изображения: Nvidia

В годовом отчёте Take-Two по форме 10-K отмечается следующее: «Разработка и использование искусственного интеллекта в наших продуктах могут представлять операционные и репутационные риски». Как поясняет издатель, внедрение ИИ в играх влечёт социальные и этические проблемы, которые могут вылиться в судебные разбирательства и нанести ущерб репутации компании. Помимо этого, издатель опасается столкнуться с негативным восприятием нововведений, связанных с ИИ, со стороны пользователей. В отчёте Electronic Arts попутно упоминается тезис о том, что применение ИИ в играх должно осуществляться очень осторожно.

Аудитория любителей игр порой весьма критически оценивает попытки издателей и разработчиков найти применение в своей работе генеративному искусственному интеллекту. Недавно попытка Sony нанять художника с навыками работы с искусственным интеллектом вызвала большой общественный резонанс. Первые попытки разработчиков поручить ИИ разработку игровых персонажей и их озвучку также наталкиваются на шквал критики. В игре Fortnite, например, появился Дарт Вейдер (Darth Vader), который общался голосом покойного актёра Джеймса Эрла Джонса (James Earl Jones), воссозданным при помощи генеративного искусственного интеллекта, и это стало причиной скандала.

Внедрение ИИ в играх угрожает потерей рабочих мест представителями отрасли, а также повышает нагрузку на окружающую среду за счёт потребности в мощных вычислительных средствах. Серьёзной проблемой могут стать претензии в области авторских прав, если искусственный интеллект возьмёт за основу интеллектуальную собственность стороннего правообладателя.

Кроме того, любители игр предпочитают взаимодействовать в окружении, которое было создано живыми людьми, тем самым косвенно выстраивая диалог с разработчиками, и данная потребность довольно сильна, чтобы внедрение искусственного интеллекта могло нарушить традицию. Даже генерируемый ИИ визуальный фон может стать причиной раздражения любителей игр, если будет создавать ощущение неестественности.

ИИ не является единственным новшеством последних лет, которое не прижилось в игровой индустрии. На волне популярности технологий блокчейна разработчики и издатели пытались внедрить в игры NFT-токены, но подобные инициативы столкнулись с сопротивлением аудитории и быстро себя изжили. Игровая отрасль замедляет свой рост, а затраты на создание игр растут, поэтому в сложных для ведения бизнеса условиях компании предпочитают минимизировать риски, и теперь ИИ относится к их числу.

Nvidia, Microsoft и Meta✴ предупредили инвесторов о рискованности ставки на ИИ

Последнее время отчёты о финансовых результатах технологических компаний звучат как реклама искусственного интеллекта (ИИ). Руководители крупных ИТ-компаний последние полтора года докладывают о том, как успешно они работают в этом направлении. Однако со ставкой на ИИ связаны и большие риски. И к сожалению, о них говорят не так громко, отметил Bloomberg.

 Источник изображения: flutie8211/Pixabay

Источник изображения: flutie8211/Pixabay

Если ознакомиться с разделом «Факторы риска» финансовых отчётов, направляемых компаниями в Комиссию по ценным бумагам и биржам США (SEC), то можно увидеть грозные предупреждения о существующих рисках, связанных с развёртыванием технологий ИИ. По данным Bloomberg, в этом году по меньшей мере десяток крупных технологических компаний выпустил или обновил предупреждения, связанные с ИИ, в своих финансовых отчётах.

Например, компания Meta Platforms заявила, что её технология ИИ может быть использована для создания дезинформации во время выборов, что приведёт к негативной реакции населения. Корпорация Microsoft утверждает, что может столкнуться с исками об авторских правах, связанных с обучением ИИ-моделей и результатами работы ИИ. Корпорация Oracle предупредила, что её продукты ИИ могут работать не так хорошо, как ИИ-решения конкурентов.

В этом разделе компании описывают, что может пойти не так, пытаясь предотвратить будущие судебные иски акционеров. В последние годы, например, реализовались такие риски, как изменение климата, военные действия в различных регионах, а также крах банка Кремниевой долины.

Предупреждения представляют собой трезвую оценку рисков в противовес безудержной пропаганде ИИ. В частности, Alphabet, материнская компания Google, сообщила, что использование её инструментов ИИ «может негативно повлиять на права человека, конфиденциальность, занятость или другие социальные проблемы», что приведёт к судебным искам или финансовым потерям.

Как отметил Bloomberg, нередко предупреждения, указанные в этом разделе, противоречат официальной линии компании. Adobe Inc. уже давно утверждает, что её программы, такие как Photoshop, останутся главными для творческих профессионалов на протяжении многих лет. Но ранее в этом году компания добавила в раздел «Факторы риска» предупреждение о том, что распространение ИИ может ударить по занятому в отрасли персоналу и, как следствие, спросу на её ПО.

Вовсе не факт, что указанные факторы рисков реализуются, но время от времени это случается. Корпорация Nvidia с начала 2023 года высказывала опасения по поводу того, что неправильное использование ИИ может привести к ограничениям на её продукты. И это действительно произошло — поставки передовых ускорителей компании в Китай попали под запрет. Более того, после того как в прошлом году администрация Байдена ужесточила экспортные ограничения на передовые компьютерные чипы, Nvidia обновила свои документы, указав, что ограничения могут продолжать расширяться. И в итоге в мае Bloomberg сообщил, что США замедляют процедуру одобрения экспорта чипов на Ближний Восток.

В число компаний, которые в этом году добавили в отчётах новые факторы риска, связанные с ИИ, вошли Palo Alto Networks, Dell Technologies и Uber Technologies. В большинстве случае компании указывают факторы риска, чтобы не стать объектом судебных исков. И большую часть дополнений можно свести к следующему: если что-то с ИИ пойдёт не так, мы вас предупреждали, подытожил Bloomberg.

Для Samsung нежелание рисковать становится главной угрозой в борьбе с конкурентами

Южнокорейский гигант Samsung Electronics при прежнем руководителе и сыне основателя Ли Гон Хи (Lee Kun-hee) ещё мог продвигать инновационные решения, которые позволяли компании обходить многих конкурентов на технологическом уровне, но сейчас, по мнению некоторых сотрудников, техническому прогрессу начинает препятствовать излишняя осторожность руководителей, которые буквально боятся рисковать.

 Источник изображения: Samsung Electronics

Источник изображения: Samsung Electronics

Всё это, по мнению Nikkei Asian Review, способствует утрате конкурентных позиций компанией Samsung Electronics. В публикации приводится пример с рационализаторским предложением одного из инженеров, которое было призвано повысить уровень выхода годной продукции при производстве чипов. Обратившись с предложением к начальнику прошлой осенью, он получил отказ в его внедрении, поскольку руководство не готово брать на себя риск и делать первый шаг, а новые технологии готов внедрять только в том случае, если уже существуют прецеденты их успешного применения.

В современной корпоративной структуре Samsung Electronics, как отмечает издание, проблемой является и практика заключения контрактов с руководящим составом только на один год. При этом руководителям с более верхнего уровня доводятся целевые показатели деятельности подразделений, которые должны быть достигнуты за год. При такой расстановке приоритетов компания просто сосредотачивается на решении каких-то краткосрочных задач, а долгосрочные исследования в итоге остаются без должного внимания и лишают компанию инновационного развития.

Samsung уже отстаёт от более мелкой SK hynix в сфере разработки памяти семейства HBM, которая сейчас востребована в сегменте систем искусственного интеллекта. Соперничать с конкурентами в сегменте дисплеев ей тоже становится всё сложнее. Наконец, Apple недавно на какое-то время вырвала у Samsung статус крупнейшего производителя смартфонов, хотя корейской компании по итогам февраля удалось добиться реванша. По мнению экспертов, склонность избегать риски нынешним руководством Samsung будет способствовать дальнейшей деградации компании, если ничего не менять в этой сфере. Впрочем, следует помнить, что внук основателя и фактический глава Samsung Ли Джэ Ён (Lee Jae-yong) провёл в тюремном заключении и под следствием несколько лет, на протяжении которых его заместители не решались принимать важные стратегические решения, и эта инерция будет сказываться на бизнесе компании ещё какое-то время даже после того, как Ли Джэ Ён окончательно утвердился в статусе главы компании и освобождён от уголовных обвинений.

OpenAI создала команду по изучению «катастрофических» угроз ИИ, вплоть до ядерной

Ответственная за сервис ChatGPT компания OpenAI сообщила, что сформировала подразделение по оценке и исследованию моделей искусственного интеллекта на предмет защиты от того, что характеризуется как «катастрофические риски».

 Источник изображения: Growtika / unsplash.com

Источник изображения: Growtika / unsplash.com

Команду под названием Preparedness («боеготовность») возглавил директор Центра развёртываемого машинного обучения при Массачусетском технологическом институте Александр Мадри (Aleksander Madry) — по данным профессиональной соцсети LinkedIn, он занял этот пост в компании ещё в мае. В задачи подразделения входит отслеживание, прогнозирование и защита от опасностей, которые несут перспективные системы ИИ — от их дара убеждения (как в случае с составлением фишинговых писем) до генерации вредоносного кода. Некоторые из категорий угроз пока, к счастью, не обозначились в реальном поле: к ним отнесли химические, биологические, радиационные и ядерные.

Гендиректор OpenAI Сэм Альтман (Sam Altman) неоднократно выражал опасения, что ИИ способен «привести к вымиранию человечества», и формирование в компании соответствующего подразделения отражает эту позицию. Компания открыта и для изучения «менее очевидных» областей риска ИИ, добавил господин Альтман. Связаться с компанией для изложения своих опасений может любой желающий — авторы десяти лучших работ получат денежный приз в размере $25 тысяч или работу в OpenAI. «Представьте, что мы предоставили вам неограниченный доступ к моделям OpenAI Whisper (расшифровка речи), Voice (преобразование текста в речь), GPT-4V и DALLE·3, а вы оказались злодеем. Рассмотрим наиболее уникальные, хотя и, вероятно, потенциально катастрофически неправильные сценарии использования модели», — говорится в одном из конкурсных вопросов.

Подразделению Preparedness будет поручено сформулировать «политику разработки с учётом угроз» — документ с подробным описанием подхода OpenAI к построению инструментов оценки и мониторинга моделей ИИ, действий по снижению угроз, а также структуры управления для надзора в процессе развития моделей. Специалисты команды дополнят прочие аспекты работы OpenAI в области безопасного ИИ, уделяя особое внимание этапам до и после развёртывания модели.

Альтман и Илья Суцкевер (Ilya Sutskever), главный научный сотрудник и соучредитель OpenAI, убеждены, что ИИ с уровнем сознания выше человеческого может появиться в ближайшие десять лет, и не факт, что этот ИИ будет доброжелательным. Поэтому компания считает необходимым изучать возможности по его ограничению.


window-new
Soft
Hard
Тренды 🔥
Игровые видеокарты спасли Nvidia от обрушения акций — продажи GeForce оказались рекордными в прошлом квартале 9 ч.
WSJ: план США по сдерживанию развития китайских технологий не работает 10 ч.
Dell получила рекордный объём заказов на ИИ-серверы и повысила прогноз по прибыли на год 12 ч.
Шум во благо: физики добились квантовой «гиперзапутанности» атомов при помощи лазерного пинцета 13 ч.
Скидки на iPhone сработали: продажи иностранных смартфонов в Китае слегка подросли в апреле 13 ч.
InnoGrit представила SSD серии N3X — альтернативу Intel Optane с показателем IOPS до 3,5 млн 14 ч.
OpenYard представила серверы RS102I и RS202I на базе Intel Xeon Emerald Rapids 14 ч.
Илон Маск начал проталкивать в США закон о беспилотном транспорте 14 ч.
1 000 000 Гбит/с на 1800 км: японцы установили рекорд скорости передачи данных по почти обычному оптоволокну 15 ч.
Synopsys уже прекратила обслуживать разработчиков чипов на территории Китая 18 ч.
OSZAR »