Во време кога е сè потешко да се препознае што е видео создадено со вештачка интелигенција, а што е вистинска снимка, можно е наскоро да се соочиме со фактот дека ќе престанеме да веруваме во сè што лично не сме го доживеале.
Социјалните мрежи се преполни со видеа кои на прв поглед изгледаат сосема реално. Границата меѓу вистински и AI-видео речиси исчезна.
Видеа во кои луѓе намерно со камен кршат стаклени мостови и паѓаат во бездна, вонземјани што подготвуваат храна во ресторани за брза храна, бебиња што шетаат низ градот … Ова се само дел од снимките што речиси секој ги видел на интернет.
Но, дали сте забележале знак со името „Sora“? Станува збор за апликација на „OpenAI“ – истата компанија што го создаде „ChatGPT“ – наменета за создавање неверојатно реалистични видеа со помош на вештачка интелигенција.
Реалност што станува се помалку препознатлива
Проблемот е што овие видеа станаа толку уверливи што многумина ги споделуваат убедени дека се вистинити.
„Најголемиот ризик од ’Sora‘ е тоа што ја укинува можноста за убедливо демантирање и ја нарушува нашата доверба во способноста да разликуваме автентично од синтетичко“, изјави за „LA Times“ експертот за deepfake-технологија Сем Грегори, извршен директор на организацијата за човекови права „WITNESS“.
„Поединечните лажни примери се важни, но вистинската штета е маглата на сомнеж што се надвиснува над сè што гледаме.“
Корисниците, изгледа, со нетрпение ја дочекаа можноста лесно и брзо да создаваат „лажни видеа“ за социјалните мрежи.
Во помалку од недела по лансирањето, „Sora“ ја презеле повеќе од еден милион корисници, со што ја надминала популарноста на „ChatGPT“ во ист период по објавувањето.
Како функционира „Sora“
Моментално, „Sora“ е достапна само за iOS-корисници во САД, и тоа со покана.
Откако ќе ја преземат, корисниците мора да го скенираат своето лице и да прочитаат три броја прикажани на екранот за системот да го сними нивниот гласовен потпис.
Потоа можат да создадат видео од 10 секунди, со хиперреалистичен изглед, звук и дијалог.
Корисниците дури можат да вметнат свое или туѓо лице во видеото, правејќи го уште поуверливо.
Иако сите видеа направени во „Sora“ носат воден жиг, сè повеќе страници на интернет го отстрануваат тој белег, правејќи го разликувањето меѓу вистински и лажни видеа речиси невозможно.
Гнев на семејствата на славните
Додека милиони луѓе се забавуваат создавајќи вакви видеа, многумина се згрозени што нивниот лик и дело се користат без дозвола.
Семејствата на познати личности и филмски студија чии дела масовно се користат во Sorа-видеа веќе ја предупредија јавноста.
„Ве молам, престанете да ми праќате AI-видеа од татко ми. Не создавате уметност. Создавате одвратни, препакувани колажи од животите на луѓето, од историјата на уметноста и музиката, и ги буткате во нечие грло надевајќи се дека ќе добиете палец нагоре. Грозно!“, напиша на "Instagram" Зелда Вилијамс, ќерката на покојниот комичар Робин Вилијамс.
И другите дигитални реконструкции на починати славни личности се болен извор на вознемиреност за нивните семејства, но извор на популарност за корисниците.
Многумина веќе побарале од „OpenAI“ да го ограничи користењето на нивните лица и гласови во апликацијата.
Холивудските агенции за таленти и синдикати исто така почнаа да го отвораат прашањето за авторските права и лиценците, барајќи фер надомест за користење на ликови во Sorа-видеата.
Реакција од „OpenAI“
Извршниот директор на компанијата, Сем Алтман, во блог објави дека носителите на права ќе добијат поголема контрола врз тоа како нивните ликови ќе се користат во видеа создадени со вештачка интелигенција.
Тој додаде дека студијата ќе можат да „се согласат“ нивните ликови да се користат во AI-реконструкции.
„Креативноста би можела да доживее голема експлозија, а со неа и квалитетот на уметноста и забавата може драматично да се зголеми", напиша Алтман, нарекувајќи го овој жанр на интеракција „интерактивна фанфикција“.
Темната страна на технологијата
Не се сите согласуваат со неговиот став.
Компанијата „CMG Worldwide“, која ги застапува интересите на починати славни личности, ангажирала фирма за AI-детекција „Loti AI“ за да ги заштити своите клиенти и нивното наследство.
Во меѓувреме, технологијата веќе ја користат и некои политичари, меѓу нив и Доналд Трамп, како и разни злонамерни актери и држави кои ја користат за пропаганда и манипулација.
„Загрижен сум за можноста за измислување снимки од протести, инсценирани злосторства или ставање вистински луѓе во компромитирачки сценарија со зборови што никогаш не ги изговориле", предупреди Грегори од „WITNESS“.
Со оглед на тоа што денес е сè потешко да се препознае што е вистинско, а што генерирано од AI, се чини дека во блиска иднина ќе живееме во свет каде што нема да можеме да веруваме во ништо што не сме го виделе – со свои очи.















