W mijającym tygodniu dowiedzieliśmy się, że ostatni koncert Quebonafide faktycznie się odbędzie. Raper zaprasza fanów 14 marca 2025 r. na wydarzenie „Północ / Południe – ostatni koncert Quebonafide (online). Going rozpoczęło już sprzedaż pierwszej puli biletów, która – jak czytamy na stronie bileterii – „w przyszłości będzie uprawniać do rozszerzenia dostępu poprzez zakup 'biletu plus’”.
SPRAWDŹ TAKŻE: Oki potwierdził związek z bambi?
Czym będą „bilety plus”? Nie wiadomo, ale po cichu liczymy na to, że oznacza, że iż, część fanów będzie mogła zobaczyć widowisko na żywo, nie tylko w internecie.
Kanał QueQuality zmienił nazwę na PÓŁNOC / POŁUDNIE. Pojawił się tam nowy kawałek Quebo i towarzyszący mu klip, w reżyserii Andrzeja Dragana. W dwa dni po publikacji na licznik „Fututramy 3” na YouTube są już ponad dwa miliony wyświetleń, a jego reżyser zdradza kulisy powstawania produkcji. Andrzej DRagan przyznał, że chętnie korzystał w pracy z dobrodziejstw generatywnej sztucznej inteligencji.
– Wszystkie tła scenograficzne z nowego klipu dla Quebo generowałem w Midjourney. Do tego masa ujęć lub przejść w Runwayu, Lumie i Stable Diffusion skalowane oczywiście Topazem. No i deep fejki na specjalnie trenowanych GANach. Dzięki temu można było zamknąć wszystkie zdjęcia w jednym dniu. Oczywiscie cała edycja i postprodukcja na laptopie.
Życzę powodzenia wszystkim mięsnym interfejsom, wątpiącym w miażdżącą przewagę uzyskiwaną w produkcji filmowej dzięki AI. Przypomnę, że zaledwie po paru miesiącach od pojawienia się tej technologii na powierzchni planety. I na osłodę: dzień przed premierą Sory Yann LeCun zapewniał w swoim stylu, że nie mamy szans, aby obecna generatywna technologia umożliwiała tworzenie filmów. Bo to przecież tylko mnożenie macierzy 🙂 – napisał Dragan, by w kolejnym wpisie dodać:
– Dla dopytujących o technikalia. Preprodukcja klipu trwała ponad miesiąc (prace koncepcyjne, projekty i symulacje geometrii planów), a dość ciężka postprodukcja od czerwca do października. Na ostatnim etapie była to praca trzyosobowa i używaliśmy wszystkich narzędzi dostępnych pod słońcem, głównie gołego After Effectsa do compositingu. Nawet analogowe niszczenie obrazu. Nie chciałbym nadwyrężać nietykalności intelektualnej osób kminiących, że dzięki AI rzeczy „robią się same”, ale zwrócę uwagę, że nie żyjemy jeszcze w XXII wieku. Natomiast Midjourney uratował nas od konieczności kręcenia w 10 lokacjach, na co nie było ani czasu, ani kasu. W efekcie z ekipy mógł wypaść location scout i mogliśmy zamknąć się w studio zamiast wozić się z planem po Europie. Dla zorientowanych: podobne uniki zastosowano w produkcji „Mandaloriana”, tylko tam zamiast Midjourney hulał głównie Unreal.
Reżyser pokazał na Facebooku także kilka zdjęć z powstawania tej imponującej produkcji.