Data publikacji: 17-12-2025 | Data aktualizacji: 17-12-2025 | Autor: Piotr Kurpiewski
Data publikacji: 17-12-2025 | Data aktualizacji: 17-12-2025 | Autor: Piotr Kurpiewski
Masz dość wklejonych, lewitujących postaci w swoich wizualizacjach? Zobacz, jak Nano Banana Pro rozwiązuje ten problem, generując ludzi z idealnym cieniem i oświetleniem. W tym artykule przeczytasz o metodach na szybkie dodawanie tzw. sztafażu na podstawie prostej instrukcji tekstowej oraz wstawianie konkretnych sylwetek do wnętrz (np. inwestora). Poznasz też triki na uzyskanie architektonicznego efektu motion blur i zobaczysz, jak jednym kliknięciem zamienić statyczny obraz w wideo dzięki modelowi Google Veo.

Masz idealny render. Światło gra na posadzce, materiały są fotorealistyczne, kompozycja bez zarzutu. Czas na ostatni szlif – sztafaż, czyli dodanie ludzi (choć może nie tak małych jak w tradycyjnej technice staffage). Otwierasz Photoshopa, wklejasz postać z popularnej biblioteki "cutout people" i… czar pryska. Postać wygląda płasko, lewituje nad podłogą, a cień pada w inną stronę niż w reszcie sceny.
Brzmi znajomo? To odwieczny problem wizualizatorów. Na szczęście sztuczna inteligencja zmienia zasady gry. Nano Banana Pro nie "wkleja" ludzi – on ich generuje wewnątrz trójwymiarowej przestrzeni zdjęcia. W tym artykule pokażę Ci, jak zaludniać swoje wizualizacje, zachowując perfekcyjny realizm, jak wstawiać konkretne sylwetki, a nawet jak wprawić je w ruch za pomocą modelu wideo Veo.
Jeśli chcesz najpierw dowiedzieć się, jak edytować same meble i wystrój, sprawdź mój poprzedni poradnik: Homestaging z AI: Jak zmienić wystrój wnętrza na gotowym zdjęciu?.
Tradycyjna metoda postprodukcji wymaga ogromnej wprawy. Aby wklejona dwuwymiarowa postać (2D) wyglądała dobrze w trójwymiarowej scenie (3D), musisz ręcznie domalować cień kontaktowy (tam, gdzie buty stykają się z podłogą), dopasować temperaturę barwową postaci do oświetlenia wnętrza i często dodać sztuczne rozmycie.

Nano Banana Pro robi to automatycznie. Model rozumie geometrię Twojego renderu. Wie, gdzie jest źródło światła (np. okno) i generuje postać, która rzuca cień we właściwym kierunku. Co więcej, światło otula sylwetkę, tworząc naturalne refleksy na ubraniu czy skórze. To koniec efektu "papierowej makiety".
ZOBACZ NASZE KURSY ZE SZTUCZNEJ INTELIGENCJI
To najszybszy sposób na wypełnienie pustego kadru, idealny na etapie koncepcji. Załóżmy, że masz gotową wizualizację salonu, ale brakuje w niej życia. Nie zależy Ci na konkretnym wyglądzie osoby, chcesz po prostu kogoś, kto czyta książkę.
Wgrywasz swój render do interfejsu (Gemini lub Google AI Studio) i wpisujesz prompt:
"Add a young woman sitting on the sofa, reading a book. She is wearing casual home clothes. Soft natural lighting from the window, realistic shadows on the sofa."

AI analizuje perspektywę kanapy i sadza na niej postać. Zwróć uwagę na to, jak poduszki uginają się pod ciężarem sylwetki – to detal, który w Photoshopie wymagałby zaawansowanego retuszu (chociażby z wykorzystaniem narzędzia Liquify), a tutaj dzieje się sam.
A co, jeśli chcesz wstawić konkretną osobę? Na przykład inwestora, który chce zobaczyć siebie w swoim przyszłym biurze, albo masz przygotowany zestaw ulubionych sylwetek (np. wygenerowanych wcześniej), które pasują do Twojego stylu?
Tutaj wykorzystujemy multimodalność modelu. Proces wygląda tak:
"Using the reference images, place the woman from the second image into the living room. She should be standing by the window, looking outside. Match the lighting and shadows to the scene."

Ważna uwaga: Nano Banana Pro świetnie radzi sobie z przeniesieniem ogólnej sylwetki, stylu ubioru i postawy. Nie jest to jednak narzędzie typu deepfake do idealnego kopiowania twarzy (tzw. face swap). Twarz może być bardzo podobna, ale model priorytetyzuje spójność oświetleniową nad biometryczną zgodnością. Do celów wizualizacji architektonicznej jest to w zupełności wystarczające.
W profesjonalnej fotografii architektury i wizualizacjach często unika się pokazywania ostrych twarzy, aby nie odwracały uwagi od projektu. Stosuje się wtedy długi czas naświetlania, zamieniając ludzi w rozmyte "duchy". Czy AI to potrafi?
Oczywiście! I robi to genialnie. Wystarczy dodać w prompcie odpowiednie polecenia:
"Add people walking in the background with strong motion blur effect. Long exposure photography style."
"A silhouette of a person standing back to the camera, looking at the view."

Korzystając z modeli od Google, musisz pamiętać o wbudowanych filtrach bezpieczeństwa. Model może odmówić wygenerowania fotorealistycznej twarzy znanej osoby publicznej lub treści, które uzna za nieodpowiednie. To zabezpieczenie przed tworzeniem fake newsów.
Jako projektanci powinniśmy też pamiętać o różnorodności. W międzynarodowych konkursach architektonicznych standardem jest pokazywanie społeczeństwa w całym jego spektrum. Warto uwzględniać to w promptach, dbając o reprezentację różnych grup wiekowych i etnicznych, co dodaje projektom autentyczności.
Skoro masz już statyczny obraz z idealnie wpasowaną postacią, dlaczego nie pójść krok dalej? Model Veo od Google to potężny model wideo, dostępny w tych samych ekosystemach co Nano Banana Pro (m. in. w interfejsie Gemini).
Możesz wgrać swoją finalną wizualizację jako klatkę początkową i wpisać prompt wideo:
"A cinematic video based on this image. The person sitting on the sofa is slowly turning pages of the book. The camera is steady."
Efekt? Otrzymujesz kilkusekundowe, wysokiej jakości wideo, w którym postać naprawdę się rusza, a światło pracuje w przestrzeni. To absolutny game changer w prezentacji projektów klientom, który pozwala Ci tworzyć animacje bez konieczności renderowania tysięcy klatek w V-Rayu.
Dodawanie ludzi i tworzenie wideo to techniki, które wyróżnią Twoje portfolio na tle konkurencji. Chcesz zobaczyć te workflows na żywo, otrzymać gotowe biblioteki promptów i nauczyć się pracy z modelami FLUX Kontext, Nano Banana oraz Veo? Jeśli tak, to konieczie zobacz nasz kurs wizualizacji i wideo AI - Nano Banana, FLUX Kontext, Veo itp. w architekturze i designie.
Liczba dostępnych kursów: 35
Łączny czas trwania kursów: 186 godzin
Liczba dostępnych kursów: 28
Łączny czas trwania kursów: 322 godzin
Liczba dostępnych kursów: 25
Łączny czas trwania kursów: 138 godzin
Liczba dostępnych kursów: 18
Łączny czas trwania kursów: 89 godzin
Szukasz czegoś innego?