Apple udostępnia nowy model open-source SHARP

imagazine.pl 1 dzień temu

Apple udostępnia model open-source SHARP, który przekształca zdjęcia 2D w widoki 3D w ułamku sekundy.

Apple wprowadziło SHARP (Sharp Monocular View Synthesis in Less Than a Second) – model sztucznej inteligencji zdolny do fotorealistycznej rekonstrukcji sceny 3D z pojedynczego zdjęcia w mniej niż sekundę.

Najważniejsze informacje:

  • SHARP tworzy 3D Gaussian representation – miliony małych „kulek” światła i koloru odtwarzają scenę z zachowaniem rzeczywistej skali i proporcji.
  • Model działa w pojedynczym przebiegu sieci neuronowej na standardowej GPU, co pozwala na natychmiastowe renderowanie wysokiej jakości widoków z pobliskich punktów.
  • W odróżnieniu od tradycyjnych metod, SHARP nie wymaga wielu zdjęć tej samej sceny, wystarczy jedno zdjęcie.
  • Wyniki modelu pokazują 25–34% lepsze LPIPS i 21–43% lepsze DISTS w porównaniu z najlepszymi poprzednimi metodami, przy trzykrotnie szybszym czasie generowania.
  • Ograniczenie: model wiernie odwzorowuje bliskie punkty widoku, nie generuje całkowicie niewidocznych części sceny, co pozwala zachować szybkość i wiarygodność efektu.

Apple's SHARP model generates photorealistic 3D Gaussian reps from a single img in secs.

GitHub: https://t.co/wU6yTWRdCl

Paper: https://t.co/xUtr40pEJ9

SHARP enables photorealistic NVS from one photo by regressing 3D Gaussian params via single NN fwd pass (<1s on std GPU).… pic.twitter.com/Wo6EyZIPvL

— QuestGlitch (@AIRevSpot) December 17, 2025

Apple opublikowało SHARP na GitHub, umożliwiając użytkownikom testowanie i dzielenie się wynikami. Społeczność już prezentuje efekty działania modelu, w tym także kreatywne zastosowania wykraczające poza pierwotny zakres projektu.

Jeśli artykuł Apple udostępnia nowy model open-source SHARP nie wygląda prawidłowo w Twoim czytniku RSS, to zobacz go na iMagazine.

Idź do oryginalnego materiału