Zmanipulowane filmy stworzone lub przerobione dzięki narzędzi AI już nikogo nie dziwią. Sztuczna inteligencja coraz lepiej radzi sobie z generowaniem realistycznych filmów, a fakt ten odciska piętno na wielu branżach. Okazuje się, iż coraz więcej ogłoszeń z branży nieruchomości zawiera zdjęcia czy filmiki, które nie do końca odpowiadają rzeczywistości.
Firmy specjalizujące się w pośrednictwie na rynku nieruchomości mają dostęp do wielu wygodnych narzędzi AI, ale w kupujący i najemcy czują się zdezorientowani i wprowadzani w błąd.
Schody prowadzące donikąd? Wiedz, iż coś się dzieje
Aplikacje takie jak AutoReel – jak podaje jej współtwórca Alok Gupta – umożliwiają agentom przekształcenie zdjęć w dynamiczne klipy z lektorem i wirtualnym umeblowaniem. Wideo można wykonać nie ruszając się z domu, w kilka minut. Dla sprzedających to sposób na szybszą promocję i niższe koszty marketingu. Gupta twierdzi, iż użycie narzędzia może zaoszczędzić ok. 500–1 000 dolarów, dodatkowo przyspieszając przygotowanie materiałów. Zarówno nagrywanie i montaż wideo, jak tworzenie podrasowanych renderów czy animacji przez virtual stagera trwa kilka dni i generuje taki koszt.
Taki sposób na oszczędności można łatwo rozpoznać, gdy model tworzy elementy, których nie ma: drzwi prowadzące donikąd, meble pojawiające się w nietypowych miejscach, okna ze zmienionymi proporcjami. Internauci zauważają też inne charakterystyczne artefakty, np. żółtawy odcień obrazu. Zażółcenie jest na tyle rozpoznawalną cechą AI, iż istnieją już narzędzia do korekcji tego efektu.
Na Reddicie można znaleźć wątki dotyczące tego zjawiska – ten jest wręcz karykaturalnym przykładem, jak różnić się może generatywna fikcja od rzeczywistości.
Na regulacje musimy poczekać
Jason Haber, współzałożyciel branżowego stowarzyszenia American Real Estate Association, podchodzi do nowych narzędzi entuzjastycznie. „Dlaczego miałbym wysyłać zdjęcia pustego pokoju do virtual stagera, czekać cztery dni i płacić 500 dolarów, skoro mogę to zrobić w ChatGPT za darmo w 45 sekund?” pyta. Podkreśla jednak, iż agenci powinni ujawniać użycie AI, tak jak do tej pory ujawniali, iż obrazy to wirtualne aranżacje 3D. Ostrzegają także, iż praktyki wprowadzające w błąd mogą prowadzić do kar i sporów prawnych.
Prawo – tak za oceanem, jak i u nas – jest jednak zwykle sporo do tyłu względem technologii. Polska przez cały czas pracuje nad projektem ustawy o systemach sztucznej inteligencji, która ma wdrożyć postanowienia unijnego AI Act w kraju. To rozporządzenie przewiduje m.in. obowiązek oznaczania treści generowanych przez AI. Do czasu wejścia w życie ustawy – trzeba uważać, żeby szukając wymarzonego lokum nie stracić czasu.
Jak nie dać się zmylić?
Kupujący i wynajmujący powinni traktować materiały wideo z dystansem i dokładnie weryfikować stan nieruchomości podczas wizyty. Warto porównywać zdjęcia z filmikami, sprawdzać szczegóły (np. rozmieszczenie gniazdek, drzwi, okien, mebli) oraz prosić o wgląd w dokumentację i plany. jeżeli opis lub zdjęcia wydają się zbyt idealne, lub zauważymy niezgodność perspektyw – warto poprosić o większą ilość zdjęć przed umówieniem terminu oględzin. Czerwona lampka powinna się nam zapalić w szczególności, jeżeli wszystkie zdjęcia wydają się podrasowane, a w ogłoszeniu brakuje oryginalnych.
Dla branży zjawisko może być katalizatorem zmian: albo pojawią się standardy oznaczania treści generowanych przez AI, albo zaufanie konsumentów spadnie.









