
Apple udostępnia model open-source SHARP, który przekształca zdjęcia 2D w widoki 3D w ułamku sekundy.
Apple wprowadziło SHARP (Sharp Monocular View Synthesis in Less Than a Second) – model sztucznej inteligencji zdolny do fotorealistycznej rekonstrukcji sceny 3D z pojedynczego zdjęcia w mniej niż sekundę.
Najważniejsze informacje:
- SHARP tworzy 3D Gaussian representation – miliony małych „kulek” światła i koloru odtwarzają scenę z zachowaniem rzeczywistej skali i proporcji.
- Model działa w pojedynczym przebiegu sieci neuronowej na standardowej GPU, co pozwala na natychmiastowe renderowanie wysokiej jakości widoków z pobliskich punktów.
- W odróżnieniu od tradycyjnych metod, SHARP nie wymaga wielu zdjęć tej samej sceny, wystarczy jedno zdjęcie.
- Wyniki modelu pokazują 25–34% lepsze LPIPS i 21–43% lepsze DISTS w porównaniu z najlepszymi poprzednimi metodami, przy trzykrotnie szybszym czasie generowania.
- Ograniczenie: model wiernie odwzorowuje bliskie punkty widoku, nie generuje całkowicie niewidocznych części sceny, co pozwala zachować szybkość i wiarygodność efektu.
Apple's SHARP model generates photorealistic 3D Gaussian reps from a single img in secs.
GitHub: https://t.co/wU6yTWRdCl
Paper: https://t.co/xUtr40pEJ9
SHARP enables photorealistic NVS from one photo by regressing 3D Gaussian params via single NN fwd pass (<1s on std GPU).… pic.twitter.com/Wo6EyZIPvL
— QuestGlitch (@AIRevSpot) December 17, 2025
Apple opublikowało SHARP na GitHub, umożliwiając użytkownikom testowanie i dzielenie się wynikami. Społeczność już prezentuje efekty działania modelu, w tym także kreatywne zastosowania wykraczające poza pierwotny zakres projektu.
Jeśli artykuł Apple udostępnia nowy model open-source SHARP nie wygląda prawidłowo w Twoim czytniku RSS, to zobacz go na iMagazine.









