#GenerowanieWideo

2025-06-20

Midjourney uruchamia swój pierwszy model do generowania wideo z AI: Midjourney V1

Midjourney, jeden z najpopularniejszych startupów zajmujących się generowaniem obrazów za pomocą sztucznej inteligencji, ogłosił w środę premierę swojego pierwszego, długo oczekiwanego modelu do tworzenia wideo – V1.

Nowe narzędzie działa na zasadzie „image-to-video”, co oznacza, że użytkownicy mogą przesłać istniejący obraz – własny lub wygenerowany wcześniej przez Midjourney – na podstawie którego model V1 stworzy zestaw czterech pięciosekundowych klipów wideo.  Podobnie jak w przypadku generatora obrazów, usługa jest dostępna wyłącznie za pośrednictwem platformy Discord.

Zapraszamy do społeczności iMagazine na Discordzie

Użytkownicy mają do dyspozycji kilka ustawień pozwalających na kontrolowanie finalnego efektu. Mogą wybrać automatyczną animację lub ręcznie opisać w formie tekstowej, jaki ruch chcą nadać obrazowi. Dostępna jest także opcja regulacji intensywności ruchu kamery i obiektu („low motion” lub „high motion”).  Choć podstawowa długość wideo to pięć sekund, można je czterokrotnie przedłużyć o cztery sekundy, osiągając maksymalnie 21 sekund.

OpenAI udostępniło AI Sora – generatywną sztuczną inteligencję do tworzenia wideo

Wraz z premierą V1, Midjourney staje do rywalizacji z innymi modelami wideo AI, takimi jak Sora od OpenAI, Gen 4 od Runway czy Veo 3 od Google.  Firma podkreśla jednak, że jej celem nie jest jedynie generowanie materiałów do użytku komercyjnego. Dyrektor generalny David Holz stwierdził, że model wideo jest kolejnym krokiem w kierunku ostatecznego celu firmy, czyli tworzenia modeli AI zdolnych do „symulacji otwartego świata w czasie rzeczywistym”.  W dalszej perspektywie firma planuje rozwój narzędzi do renderowania 3D oraz modeli AI działających w czasie rzeczywistym.

Runway wprowadza Gen-4: coraz trudniej poznać, że wideo jest wygenerowane przez AI

Jeśli chodzi o koszty, generowanie wideo jest wycenione ośmiokrotnie drożej niż tworzenie obrazu, co oznacza, że użytkownicy z podstawowymi planami szybciej zużyją swoje miesięczne limity.  Najtańszym sposobem na wypróbowanie V1 jest subskrypcja planu Basic za 10 dolarów miesięcznie.  Użytkownicy droższych planów (Pro za 60 USD i Mega za 120 USD) otrzymają nielimitowane generowanie wideo w wolniejszym trybie „Relax”.

Premiera V1 ma miejsce zaledwie tydzień po tym, jak Midjourney zostało pozwane przez studia filmowe Disney i Universal. Pozew dotyczy rzekomego naruszenia praw autorskich poprzez generowanie obrazów przedstawiających postacie należące do studiów, takie jak Homer Simpson czy Darth Vader. Efekty pracy nowej AI do wideo możecie obejrzeć w poniższym wpisie na X:

Introducing our V1 Video Model. It's fun, easy, and beautiful. Available at 10$/month, it's the first video model for *everyone* and it's available now. pic.twitter.com/iBm0KAN8uy

— Midjourney (@midjourney) June 18, 2025

 

#AIDoGenerowaniaWideo #generowanieWideo #Midjourney #MidjourneyV1 #news #sztucznaInteligencja

Midjourney V1
2025-04-16

Gemini umożliwia generowanie filmów z modelem Veo 2

Google ogłosiło wprowadzenie nowej funkcji w aplikacji Gemini, umożliwiającej użytkownikom Gemini Advanced generowanie 8-sekundowych filmów za pomocą modelu Veo 2.

Funkcja jest już dostępna, pozwala tworzyć klipy wideo w rozdzielczości 720p na podstawie tekstowych opisów. Model Veo 2 jest zintegrowany z aplikacją Gemini na urządzeniach mobilnych i w wersji przeglądarkowej.

Veo 2 is super fun to play with, and people have been creating some amazing videos with it. Its implicit understanding of the physics of the world is kind of mindblowing. Looking forward to seeing more people enjoy it now that it’s part of @GeminiApp! https://t.co/bMqLCmNHmd

— Demis Hassabis (@demishassabis) April 15, 2025

Aby wygenerować film, użytkownicy wybierają model Veo 2 z menu aplikacji Gemini i wprowadzają opis sceny, którą chcą stworzyć. Im bardziej szczegółowy prompt, tym większa kontrola nad efektem końcowym. Wyprodukowane filmy są zapisywane w formacie MP4 w proporcjach 16:9 i mogą być udostępniane w mediach społecznościowych, takich jak TikTok czy YouTube Shorts. Wszystkie klipy są oznaczane cyfrowym znakiem wodnym SynthID, wskazującym, że zostały stworzone przez sztuczną inteligencję.

Google podkreśla, że Veo 2 wyróżnia się zaawansowanym rozumieniem fizyki i ruchu ludzkiego, co pozwala na tworzenie realistycznych scen i płynnych animacji w różnych stylach. Funkcja jest obecnie ograniczona do generowania filmów na podstawie tekstu, ale firma zapowiada prace nad rozszerzeniem możliwości modelu.

Użytkownicy Gemini Advanced mogą korzystać z tej opcji w ramach subskrypcji Google One AI Premium, kosztującej 97,99 zł miesięcznie w Polsce. Nowa funkcja jest również dostępna w eksperymentalnym projekcie Google Labs o nazwie Whisk, gdzie użytkownicy mogą przekształcać obrazy w animacje za pomocą Veo 2. Wdrożenie rozpoczęło się 15 kwietnia i potrwa kilka tygodni, obejmując wszystkie języki obsługiwane przez Gemini, w tym polski. Google nie podało szczegółów dotyczących miesięcznych limitów generowania filmów, ale użytkownicy będą informowani o zbliżaniu się do limitu.

Wprowadzenie Veo 2 do Gemini jest kolejnym krokiem w rozwoju generatywnej sztucznej inteligencji Google, mającym na celu zwiększenie kreatywnych możliwości użytkowników. Firma zachęca do testowania nowej funkcji i dzielenia się opiniami, które pomogą w dalszym udoskonalaniu modelu. Czy Veo 2 pojawi się również w wersji bezpłatnej Gemini? Na ten temat Google milczy. Oczywiście powyższe ilustracje to stopklatki z przykładowych klipów wygenerowanych przez debiutującą funkcję w Gemini Advanced.

Google Cloud prezentuje przełomowe rozwiązania AI na Next ‘25

#AI #Gemini #generowanieWideo #Google #news #sztucznaInteligencja #Veo2

Google Gemini Veo 2Google Gemini Veo 2Google Gemini Veo 2
2025-04-02

Runway wprowadza Gen-4: coraz trudniej poznać, że wideo jest wygenerowane przez AI

Runway pochwaliło się swoim najnowszym generatywnym modelem AI do tworzenia wideo: Runway Gen-4. Przełom polega na tym, że nowość generuje spójne wizualnie sceny bez zniekształceń postaci czy scenerii.

Runway, firma specjalizująca się w sztucznej inteligencji do generowania wideo, ogłosiła premierę swojego najnowszego modelu – Gen-4. Nowa technologia, będąca następcą modelu Gen-3 Alpha, wprowadza przełomowe ulepszenia w zakresie spójności postaci, lokalizacji i obiektów w generowanych filmach, a także oferuje bardziej realistyczną fizykę ruchu. Model jest już udostępniany użytkownikom płatnym oraz klientom korporacyjnym, zdaniem twórców może zrewolucjonizować proces tworzenia narracyjnych treści wideo.

Gen-4 rozwiązuje jeden z największych problemów generatywnego wideo – brak spójności wizualnej między ujęciami. W przeciwieństwie do wcześniejszych modeli, takich jak Gen-2 czy Gen-3, które miały trudności z utrzymaniem jednolitości postaci i tła w różnych ujęciach, Gen-4 pozwala na tworzenie sekwencji z zachowaniem ciągłości wizualnej. Dzięki temu filmowcy mogą generować wideo z dynamicznym ruchem kamery i realistycznymi efektami, ale bez nienaturalnych czy też niepożądanych zniekształceń prezentowanych obiektów, co otwiera nowe możliwości dla dłuższych form narracyjnych, takich jak filmy fabularne. Runway podkreśla, że model ten jest odpowiedzią na potrzeby profesjonalistów z branży kreatywnej, w tym projektantów i reżyserów.

Model Gen-4 opiera się na technologii image-to-video, umożliwiając tworzenie wideo na podstawie obrazów referencyjnych i instrukcji tekstowych. Użytkownicy mogą precyzyjnie kontrolować style, postaci i lokalizacje, co zapewnia większą kontrolę nad narracją. Runway zademonstrowało możliwości modelu, publikując teledysk wygenerowany w całości za pomocą Gen-4, co spotkało się z entuzjastycznym odbiorem. Rzeczony materiał poniżej:

Runway podkreśla, że nie walczy z klasyczną kinematografią, lecz ją wspiera. Zresztą firma współpracuje z Hollywood – m.in. ze studiem Lionsgate, tworząc dedykowane modele AI oparte na katalogu ponad 20 000 tytułów.

Runway od lat buduje swoją markę, koncentrując się na potrzebach filmowców, w odróżnieniu od konkurentów, takich jak OpenAI, którzy stawiają na bardziej uniwersalne narzędzia wideo. Gen-4 to kolejny krok w kierunku stworzenia kompleksowego procesu produkcyjnego wideo – od uchwycenia mimiki (dzięki funkcji Act-One) po generowanie spójnych sekwencji wideo. Firma uruchomiła także fundusz Hundred Film Fund, oferując twórcom do 1 miliona dolarów na produkcje wykorzystujące AI, co pokazuje jej ambicje w transformacji przemysłu filmowego.

Wprowadzenie Gen-4 jest określane jako „szczególny moment” w rozwoju technologii AI dla mediów. Choć model wciąż ma ograniczenia – np. generuje klatki w rozdzielczości 720p, co jest poniżej standardu 4K wymaganego w nowoczesnych produkcjach – jego możliwości wskazują na ogromny potencjał. To co wydawało się najtrudniejsze, czyli zachowanie spójności sceny, udało się uzyskać. Rozdzielczość wyniku to kwestia skali i mocy, a nie wyrafinowania „myślenia” AI. Nie da się ukryć, że wygenerowane przez najnowszy model Gen-4 klipy robią wrażenie. Ciekawe jak odpowie OpenAI ze swoim modelem Sora.

OpenAI udostępniło AI Sora – generatywną sztuczną inteligencję do tworzenia wideo

#AI #Gen4 #generowanieWideo #news #Runway #sztucznaInteligencja

Runway

Client Info

Server: https://mastodon.social
Version: 2025.04
Repository: https://github.com/cyevgeniy/lmst