Nowy trend w sieci: ChatGPT pomaga identyfikować lokalizacje na zdjęciach
W sieci pojawił się niepokojący trend – użytkownicy coraz częściej wykorzystują ChatGPT do ustalania miejsca, w którym wykonano konkretne zdjęcie.
Nowe modele OpenAI potrafią analizować obrazy
W tym tygodniu OpenAI zaprezentował swoje najnowsze modele sztucznej inteligencji – o3 i o4-mini. Oba potrafią "rozumować" na podstawie przesłanych obrazów. W praktyce modele te mogą przycinać, obracać i powiększać fotografie – nawet te niewyraźne lub zniekształcone – aby dokładnie je przeanalizować.
Te możliwości analizy obrazów, połączone z funkcją przeszukiwania internetu, tworzą potężne narzędzie do identyfikacji lokalizacji. Użytkownicy platformy X szybko odkryli, że model o3 szczególnie dobrze radzi sobie z rozpoznawaniem miast, zabytków, a nawet restauracji i barów na podstawie subtelnych wskazówek wizualnych.
Wow, nailed it and not even a tree in sight. pic.twitter.com/bVcoe1fQ0Z
— swax (@swax) April 17, 2025
Jak działa identyfikacja lokalizacji?
W wielu przypadkach modele nie wydają się korzystać z "wspomnień" z poprzednich rozmów w ChatGPT ani z danych EXIF, czyli metadanych dołączonych do zdjęć, które mogą ujawniać informacje takie jak miejsce wykonania fotografii.
Na platformie X można znaleźć wiele przykładów użytkowników przesyłających ChatGPT menu restauracji, zdjęcia osiedli, elewacje budynków czy nawet autoportrety, prosząc model o3, aby działał jak w "GeoGuessr" – grze online, w której gracze zgadują lokalizacje na podstawie zdjęć z Google Street View.
this is a fun ChatGPT o3 feature. geoguessr! pic.twitter.com/HrcMIxS8yD
— Jason Barnes (@vyrotek) April 17, 2025
Potencjalne zagrożenia prywatności
Ta funkcjonalność rodzi oczywiste problemy związane z prywatnością. Nie ma nic, co powstrzymałoby kogoś o złych zamiarach przed zrobieniem zrzutu ekranu np. z czyjejś relacji na Instagramie i użyciem ChatGPT do próby zidentyfikowania tej osoby.
o3 is insane
I asked a friend of mine to give me a random photo
They gave me a random photo they took in a library
o3 knows it in 20 seconds and it's right pic.twitter.com/0K8dXiFKOY— Yumi (@izyuuumi) April 17, 2025
Porównanie z poprzednimi modelami
Oczywiście, podobne działania były możliwe jeszcze przed premierą o3 i o4-mini. TechCrunch przetestował oba modele, porównując umiejętności o3 i starszego GPT-4o (który nie miał możliwości analizy obrazów) w zgadywaniu lokalizacji. Co zaskakujące, GPT-4o często dochodził do tych samych, poprawnych odpowiedzi co o3 – i zajmowało mu to mniej czasu.
Podczas testów zdarzył się jednak przynajmniej jeden przypadek, gdy o3 zidentyfikował miejsce, z którym GPT-4o nie potrafił sobie poradzić. Na podstawie zdjęcia purpurowej głowy nosorożca w słabo oświetlonym barze o3 poprawnie wskazał, że chodzi o jeden z barów w Williamsburgu – podczas gdy GPT-4o mylnie sugerował pub w Wielkiej Brytanii.
Nie zawsze dokładne wyniki
To nie znaczy jednak, że o3 jest nieomylny. W kilku testach model zawodził – wpadał w pętlę, nie mogąc znaleźć odpowiedzi, w której byłby wystarczająco pewny, albo podawał błędną lokalizację. Użytkownicy X również zauważyli, że o3 czasem mylnie identyfikuje miejsca.
Ryzyko związane z zaawansowanymi modelami AI
Ten trend pokazuje niektóre z pojawiających się zagrożeń związanych z coraz bardziej zaawansowanymi modelami AI. Wygląda na to, że w ChatGPT nie ma wielu zabezpieczeń, które zapobiegałyby tego typu "odwrotnemu wyszukiwaniu lokalizacji", a OpenAI – firma stojąca za ChatGPT – nie porusza tego problemu w swoim raporcie dotyczącym bezpieczeństwa o3 i o4-mini.
Skontaktowaliśmy się z OpenAI w celu uzyskania komentarza. Zaktualizujemy artykuł, jeśli otrzymamy odpowiedź.