Apple twierdzi, iż jego model OpenELM nie obsługuje Apple Intelligence w związku z kontrowersjami wokół YouTube

cyberfeed.pl 2 miesięcy temu


Na początku tego tygodnia, szczegółowe dochodzenie iż Apple i inni giganci technologiczni użyli napisów YouTube do trenowania swoich modeli AI. Obejmowało to ponad 170 000 filmów z takich źródeł jak MKBHD, Mr. Beast i innych. Następnie Apple wykorzystał ten zestaw danych do trenowania swoich modeli OpenELM typu open source, które zostały wydane w kwietniu.

Firma Apple potwierdziła, iż 9to5MacJednak OpenELM nie obsługuje żadnej z funkcji sztucznej inteligencji ani uczenia maszynowego – w tym Apple Intelligence.

Apple twierdzi, iż stworzyło Modele OpenELM jako sposób na wniesienie wkładu do społeczności badawczej i promowanie rozwoju dużych modeli językowych typu open source. W przeszłościBadacze z Apple opisali OpenELM jako „najnowocześniejszy, otwarty model języka”.

Według Apple, OpenELM został stworzony wyłącznie do celów badawczych, a nie do wykorzystania do zasilania którejkolwiek z funkcji Apple Intelligence. Model został opublikowany jako open source i jest szeroko dostępny, w tym na Witryna internetowa Apple Machine Learning Research.

Ponieważ OpenELM nie jest używany jako część Apple Intelligence, oznacza to, iż zbiór danych „YouTube Subtitles” nie jest używany do zasilania Apple Intelligence. W przeszłości Apple powiedział, iż modele Apple Intelligence były trenowane „na licencjonowanych danych, w tym danych wybranych w celu ulepszenia określonych funkcji, a także publicznie dostępnych danych zebranych przez nasz web-crawler”.

Na koniec, Apple poinformowało mnie, iż nie planuje tworzenia nowych wersji modelu OpenELM.

Jak Przewodowy zgłoszono na początku tego tygodnia firmy, w tym Apple, Anthropic i NVIDIA, wykorzystały ten zbiór danych „YouTube Subtitles” do trenowania swoich modeli AI. Ten zbiór danych jest częścią większej kolekcji o nazwie „The Pile” organizacji non-profit EleutherAI.

FTC: Używamy linków afiliacyjnych generujących dochód. Więcej.



Source link

Idź do oryginalnego materiału