Видео AI: Гатч должен стать деньгами

Принцип работы чат-ботов типа ChatGPT хорошо известен. На основе введенных текстовых описаний, называемых подсказками, инструменты искусственного интеллекта, такие как Sora 2, Google Veo 3 и приложение Meta от Vibe, создают видеоролики за время от нескольких секунд до минут. Плавные последовательности движений, реалистичные игры света и тени, голоса и музыка – многие клипы выглядят обманчиво реальными, и не только на первый взгляд.

На запуске Sora 2 OpenAI представила видео фигуристки, выполняющей пируэты и прыжки на льду с белой кошкой на голове. Google опубликовал созданное Veo 3 видео скрипача с плавными движениями и аутентичной музыкой.

Ограничения по длине

В настоящее время созданные клипы имеют максимальную продолжительность от десяти до 20 секунд. По мнению Томаса Пока, руководителя Института визуальных вычислений (IVC) Технологического университета Граца, для этого есть две причины. С одной стороны, это связано с требуемой вычислительной мощностью; OpenAI недавно заключила контракты с Amazon, Microsoft и Oracle в этой области.

С другой стороны, трудно поддерживать «последовательность» в течение более длительных периодов времени. «Я не могу гарантировать, что человек, появляющийся на видео, останется тем же человеком в течение длительного периода времени или станет кем-то другим», — сказал Пок ORF.at. Это так сложно контролировать, потому что мы не знаем, как программы на самом деле создают контент видео.

Контент ИИ вытесняет контент, созданный руками человека

На таких платформах, как TikTok, Instagram Reels и YouTube Shorts, вам не нужны длинные клипы. Контент, созданный искусственным интеллектом, все чаще смешивается с бесконечным потоком коротких видеороликов. Термин «отстой ИИ» стал общепринятым для обозначения некачественного, искусственно созданного контента.

Социальная сеть буквально «засорена», заявила эксперт по цифровым технологиям Ингрид Бродниг в интервью ORF.at. Видео, созданные с помощью искусственного интеллекта, «идеально подходят для вирусного распространения», — говорит Бродниг. Милое видео с котиком или расстраивающие предполагаемые «новости» о выдающемся человеке вызывают эмоции и приглашают вас прокомментировать и поделиться. Алгоритмы социальных сетей вознаграждают взаимодействие, в результате чего соответствующий клип появляется в лентах все большего и большего количества людей.

«Это означает, что контент ИИ оказывается в том месте в ленте, где раньше находился контент, созданный человеком», — говорит Бродниг. Производители контента, в свою очередь, могут зарабатывать деньги за счет увеличения охвата.

Нарушения авторских прав

Механизмы контроля, встроенные технологическими компаниями, легко обойти. Всего через несколько дней после выпуска Sora 2 стали распространяться инструкции по удалению цифровых водяных знаков. Имели место и нарушения авторских прав. OpenAI изначально разрешал показ материалов, защищенных авторским правом, если правообладатели явно не возражали против их использования.

В результате в видеороликах ИИ появились такие персонажи, как Супер Марио и Губка Боб. После протестов со стороны киноиндустрии OpenAI наконец изменила свою политику. Дипфейки, созданные в цифровом формате, но реально выглядящие люди, вызвали резкую критику. Пользователи Sora 2 создавали видео с умершими личностями, такими как икона гражданских прав в США Мартин Лютер Кинг. Под давлением семьи Кинга OpenAI наконец прекратила показ.

Создавайте факты

Новые возможности в сфере видео также ускорили производство дезинформации. Европейская обсерватория цифровых медиа (EDMO) оценила 1722 проверки фактов, проведенные в Европе. В двенадцати процентах рассмотренных случаев ложная информация была основана на контенте, созданном ИИ. EDMO ожидает дальнейшего роста.

Цифровой эксперт Бродниг критикует поведение технологических компаний, которые действовали согласно принципу «Двигайся быстро и ломай вещи», придуманному мета-боссом Марком Цукербергом. Важно как можно быстрее создавать факты, приучить людей к новой технологии и первыми занять потенциально выгодные ниши. «Только когда формы злоупотреблений становятся очень очевидными и возникают проблемы с авторскими правами, вы отступаете», — говорит Бродниг.

Найдите бизнес-модель

Прежде всего – это поиск бизнес-модели. Только в этом году Amazon, Microsoft, Oracle и другие компании инвестируют в строительство центров обработки данных сумму, эквивалентную 345 миллиардам евро. По словам исследователя искусственного интеллекта Пока, пока неясно, будут ли эти инвестиции когда-либо прибыльными. При нынешнем положении дел перспективы получения миллиардов доходов компенсируются еще большими затратами.

Генеральный директор OpenAI Сэм Альтман

Рейтер/Шелби Таубер

Руководитель OpenAI Сэм Альтман

По данным OpenAI, всего через пять дней после запуска приложение Sora 2 превысило отметку в один миллион загрузок в магазинах приложений. Для многих людей ChatGPT стал неотъемлемой частью повседневной рабочей жизни. Тем не менее, компания по-прежнему несет убытки. Ожидается, что убытки составят эквивалент более десяти миллиардов евро за квартал, сообщила «Wall Street Journal».

К 2030 году, в дополнение ко всем уже объявленным миллиардным инвестициям, OpenAI придется привлечь эквивалент 179 миллиардов евро в виде нового капитала, чтобы покрыть расходы на свои центры обработки данных и оставаться платежеспособным, сообщает Financial Times со ссылкой на расчеты британского банка HSBC. OpenAI — это «машина для траты денег с веб-сайтом наверху», — комментирует газета.

Доверие против надежности

В любом случае контент, создаваемый ИИ, меняет то, как «мы формируем знания и потребляем контент», — сказала ученая Лаура Кромптон из Ингольштадтского технологического университета, изучающая этику искусственного интеллекта. «Граница между реальностью и фейком стирается», — сказал Кромптон ORF.at.

Одна из больших проблем на данный момент заключается в том, что «у нас есть много ИИ, которому мы доверяем, но который не заслуживает доверия», — сказал исследователь. Это приводит к парадоксальной ситуации для пользователей: с одной стороны, «мы должны снова научиться смотреть на контент более критично». Но это противоречит обещанию облегчения ситуации за счет использования искусственного интеллекта, говорит Кромптон.



Source link