Работниците в различни индустрии се страхуват да бъдат заменени от програмата. Това вече се случва в Латинска Америка, като гласови актьори се наемат да записват масиви от данни и да обучават алгоритми, които в крайна сметка ще се конкурират с тях за роли. Разработчиците на AI за дублиране обещават да намалят разходите на продуцентите, като позволят на филмовите герои да говорят всеки език, като същевременно запазват оригиналния си глас.

Много компании предлагат AI дублаж на испански, въпреки че малко от тези, които идват в Латинска Америка, са от испаноговорящи страни. Подходът винаги е малко по-различен.
  • Базираният в Тел Авив Deepdub обещава синтетични гласове, които възпроизвеждат набор от човешки емоции, подходящи за телевизионни предавания и филми.
  • London Papercup разчита на нехудожествена литература – ​​съдържание като това, показвано от BBC, Sky News и Discovery. 
  • Базираната в Сеул Klling съчетава AI дублаж с технология deepfake, синхронизирайки устните на актьорите с компютърно генерирани гласове.

Въпреки различията си, всички тези компании защитават продукта си като по-евтина и по-бърза алтернатива на дублажа на актьорите.

Оз Краковски, главен директор по приходите в Deepdub, казва, че изкуствените гласове имат предимство, когато става въпрос за дублиране на холивудски хитове на други езици. AI ​​ще позволи на героя да говори с гласа на звезда, като Морган Фрийман, като същевременно запази оригиналния глас, като същевременно използва безупречен испански с всеки местен акцент или диалект.

Актьорите и техните фенове в Латинска Америка обаче не са впечатлени. Мексиканската озвучаваща актриса Габриела Гузман казва: „Може би AI може да имитира глас, но никога няма да може да играе като истински актьор. Просто няма душа и точка.” Критиката обаче засяга не само абстрактни концепции, но и доста практични, които надхвърлят работата на екрана.

„Как да докарам AI на Comic-Con, за да говори с публиката? Това е просто невъзможно … Актьорите на дублажа имат фенове “, казва Гузман.

Въпреки че програмите за дублиране на AI изглеждат безлични, те в крайна сметка зависят от работата на хората, защото софтуерът се учи от реални представления: актьорите са необходими за учене. Заедно с техническия екип, те обучават AI на умения за създаване на изкуствен глас от хиляди записани фрагменти, често произволни и безсмислени.

„Те карат актьорите да записват много думи и отделни звуци в различни стилове и тонове в продължение на няколко часа“, казва актьорът на дублажа. Той поиска да остане анонимен, тъй като се страхува да не попадне в черния списък на дублажните студия с изкуствен интелект.

Аржентинският актьор за дублаж Алехандро Грауе казва, че преди няколко месеца в Буенос Айрес са започнали да се появяват покани за записване на компании за изкуствен интелект. „Когато ми предложиха работата, ми казаха, че ще трябва да напиша 10 000 думи и ще ми платят 10 000 песо (около 52 долара по официалния обменен курс)“, спомня си той.

Двама източника от индустрията, пожелали анонимност поради страх да не загубят работата си, потвърдиха, че Буенос Айрес е едно от местата за събиране на данни за дублиране на AI компании в Европа и Азия. Това вероятно се дължи на благоприятния обменен курс, който прави сравнително евтино обучението на AI в страната.

Самите компании обаче твърдят, че дългосрочните спестявания, които предлагат, са много по-важни. Не че е по-евтино да се записва в Аржентина, но самите човешки записи са краткотраен разход.

Те обещават, че след като записите бъдат използвани за създаване на модели на “гласова банка” или за обучение на компютърно генерирани гласове, за да имитират истински, продуцентите на филми и телевизия ще трябва да плащат само за гласове, защитени с авторски права. Разходите за преводачи, актьори, миксиране на звук и звукозаписно студио ще останат в миналото.

Анонимен източник каза на “Останалата част от света”, че компанията за дублаж го е принудила да подпише споразумение за неразкриване, въпреки че той просто е записвал звуци за набори от данни, а не конкретно съдържание. Той също така добави, че следователно актьорите няма да могат публично да претендират за приходи на компанията от изкуствени гласове.


В допълнение към гласовите записи има и други начини за събиране на данни. Методът “гласово предаване” обучава изкуствен интелект върху оригиналните гласове от филма. По този начин програмата ще може да научи звуковите и тоналните характеристики на най-високия ешелон холивудски актьори, за да ги преведе и адаптира на друг език. Краковски от Deepdub казва, че са необходими само 2-3 минути гласови данни на актьор, за да се направи това.

Deepdub беше първата компания, която дублира цял игрален филм на испански с помощта на интелект. Това беше американски трилър Всеки път, когато умирам, издаден през 2019 г.

За него изкуственият интелект създаде песен на „неутрален испански“ (español neutro), устен диалект, който съществува само в дублирани филми и телевизионни предавания, предназначен за разнообразен пазар от 550 милиона души, които живеят предимно в Мексико, Колумбия, Аржентина, Съединените щати и Испания (въпреки че европейският испански има свой собствен “неутрален” вариант).

Краковски вярва, че с времето AI дублажът може да премахне нуждата от „неутрален испански“.

„В бъдеще ще можем да го разнообразим с повече разнообразни диалекти и акценти, което ще ни позволи да създадем още по-географски специфично съдържание“, казва Краковски от Deepdub.

Понастоящем публиката също изпитва проблеми с генерирания от изкуствен интелект дублаж за по-малко фокусирано върху знаменитости съдържание. И така, когато във видеоклипове в YouTube, дублирани от Алехандро Грауе, гласът му беше заменен с изкуствен, това предизвика сериозни критики от публиката.

„Не го разваляйте с такъв ужасен дублаж!“ – написа един от коментаторите.

Но разработчиците са уверени, че публиката в крайна сметка ще свикне с него. Нещо повече, Фил Нюсъм, който отговаря за продукцията в MiLa Media, студиото зад Every Time I Die, смята, че дистрибуторите не се интересуват какъв е дублажът.

Това обаче е само началото и работата на актьорите и AI все още странно се припокрива. Например миналата година Disney+ беше домакин на пример за Оби-Уан Кеноби. В английската версия персонажът на Дарт Вейдър използва глас, генериран от AI от украинската компания Respeecher. Алгоритъмът възпроизвежда характерния дрезгав глас на Джеймс Ърл Джоунс.

Въпреки това, в латиноамериканската версия той беше озвучен от аржентинско-мексиканския актьор Себастиан Япур, който играе ролята от 2015 г. – всъщност човек, наречен AI актьор.

Япур смята, че продуцентите са “клонирали” гласа на Джоунс от носталгия: “Трудно е да се заменят утвърдени герои.” Въпреки това, докато AI технологията понякога се използва за артистични цели в САЩ, каза той, в Латинска Америка „те просто се опитват да направят нещо, което вече е много евтино, дори по-евтино“.