Robot Toyoty zrobi 艣niadanie Twojemu dziecku 馃オ

techpigulka.substack.com 2 miesi臋cy temu

Cze艣膰!

馃煚 Online Safety Bill w UK: Ochrona w sieci kontra prywatno艣膰 u偶ytkownik贸w

Online Safety Bill w Wielkiej Brytanii zosta艂 przyj臋ty przez parlament z celem uczynienia internetu w UK najbezpieczniejszym miejscem online. Ustawa nak艂ada surowe wymogi na du偶e platformy spo艂eczno艣ciowe w zakresie usuwania nielegalnych tre艣ci i wprowadza nowe 艣rodki weryfikacji wieku.

Ustawa mo偶e stanowi膰 zagro偶enie dla prywatno艣ci u偶ytkownik贸w i us艂ug szyfrowania, takich jak WhatsApp, kt贸re mog膮 by膰 zobowi膮zane do sprawdzania wiadomo艣ci u偶ytkownik贸w pod k膮tem materia艂贸w dotycz膮cych wykorzystywania seksualnego dzieci. WhatsApp zagrozi艂 opuszczeniem rynku brytyjskiego w odpowiedzi na te wymogi.

Ofcom rozpocznie dzia艂ania w zakresie zwalczania nielegalnych tre艣ci i ochrony bezpiecze艅stwa dzieci, podczas gdy Signal wyrazi艂 ostro偶ny optymizm wobec rozm贸w dotycz膮cych ustawy, zaznaczaj膮c, i偶 nie planuje opuszcza膰 rynku brytyjskiego.

馃煚 Toyota uczy roboty przyrz膮dzania 艣niada艅 dzi臋ki sztucznej inteligencji

Toyota Research Institute wykorzysta艂o generatywn膮 sztuczn膮 inteligencj臋 w "przedszkolu dla robot贸w", ucz膮c maszyny przygotowywania 艣niadania poprzez nadanie im zmys艂u dotyku i pokazywanie im, jak wykonywa膰 zadania, zamiast tradycyjnego kodowania.

Kluczem do sukcesu jest zastosowanie "du偶ego, poduszkowatego kciuka", kt贸ry pozwala robotom "czu膰", co robi膮, co u艂atwia wykonywanie trudnych zada艅. W ci膮gu kilku godzin roboty ucz膮 si臋 nowych umiej臋tno艣ci obserwuj膮c "nauczyciela", a nast臋pnie generalizuj膮c te umiej臋tno艣ci.

Badacze z TRI maj膮 na celu stworzenie "Large Behavior Models" (LBMs) dla robot贸w, kt贸re ucz膮 si臋 przez obserwacj臋. Do tej pory nauczyli roboty ponad 60 skomplikowanych umiej臋tno艣ci i planuj膮 zwi臋kszy膰 t臋 liczb臋 do 1000 do ko艅ca 2024 roku. Inne firmy, takie jak Google i Tesla, prowadz膮 podobne badania w tej dziedzinie.

馃煚 TikTok wprowadza etykiety dla tre艣ci generowanych przez AI

TikTok wprowadza now膮 funkcj臋, kt贸ra pozwala tw贸rcom oznacza膰 tre艣ci stworzone przy u偶yciu narz臋dzi sztucznej inteligencji. Funkcja ta zosta艂a zapowiedziana w oficjalnym wpisie na blogu po tym, jak u偶ytkownicy zauwa偶yli j膮 w zesz艂ym miesi膮cu.

W ramach wytycznych dla u偶ytkownik贸w TikTok, tw贸rcy s膮 ju偶 zobowi膮zani do informowania, kiedy tre艣膰 zosta艂a stworzona przy u偶yciu AI. Nowa funkcja b臋dzie zach臋ca膰 tw贸rc贸w do w艂膮czenia etykiety AI, a tak偶e przypomina膰 o mo偶liwo艣ci usuni臋cia tre艣ci, je偶eli nie zostanie ujawnione u偶ycie narz臋dzi AI.

Sztuczna inteligencja zyskuje na popularno艣ci na TikToku, zar贸wno w艣r贸d u偶ytkownik贸w, jak i samej firmy. TikTok planuje r贸wnie偶 przemianowa膰 efekty wykorzystuj膮ce AI, dodaj膮c do nazwy skr贸t "AI" i wymaga膰 od tw贸rc贸w efekt贸w, aby post臋powali podobnie.

馃煚 B艂膮d Microsoftu prowadzi do wycieku 38 TB danych na GitHub

Badacze z firmy Wiz odkryli powa偶ny b艂膮d bezpiecze艅stwa w Microsoft, kt贸ry doprowadzi艂 do ujawnienia 38 terabajt贸w prywatnych danych podczas rutynowej aktualizacji materia艂贸w szkoleniowych z otwartego 藕r贸d艂a AI na GitHubie. Ujawnione dane obejmuj膮 m.in. kopie zapasowe dysk贸w dw贸ch pracownik贸w, tajemnice korporacyjne oraz ponad 30 000 wewn臋trznych wiadomo艣ci z Microsoft Teams.

Podczas udost臋pniania plik贸w Microsoft wykorzysta艂 funkcj臋 Azure o nazwie SAS tokens, kt贸ra pozwala na udost臋pnianie danych z kont magazynowych Azure. Jednak偶e link zosta艂 skonfigurowany w taki spos贸b, i偶 udost臋pnia艂 ca艂e konto magazynowe, w tym dodatkowe 38TB prywatnych plik贸w.

Microsoft zareagowa艂 na problem, uniewa偶niaj膮c token SAS w ci膮gu dw贸ch dni od pierwotnego zg艂oszenia w czerwcu tego roku. W odpowiedzi na incydent firma opublikowa艂a w艂asny wpis na blogu, wyja艣niaj膮c, jak dosz艂o do wycieku danych i jak mo偶na zapobiega膰 takim sytuacjom w przysz艂o艣ci.

馃煚 Intel stawia na boom w sztucznej inteligencji

Dyrektor generalny Intela, Pat Gelsinger, podczas corocznej konferencji firmy Intel, podkre艣li艂, i偶 technologia jego firmy b臋dzie kluczowa dla bran偶owego boomu w dziedzinie oblicze艅 zwi膮zanych z sztuczn膮 inteligencj膮. Wskaza艂 na post臋py w technologii produkcji oraz narz臋dziach dla programist贸w AI.

Gelsinger stara si臋 zwi臋kszy膰 zainteresowanie technologi膮 Intel, argumentuj膮c, i偶 zastosowanie sztucznej inteligencji nie b臋dzie ograniczone tylko do centr贸w danych du偶ych dostawc贸w chmur, ale rozprzestrzeni si臋 tak偶e na inne obszary, w tym rynek PC. Zapowiedzia艂 r贸wnie偶 wprowadzenie techniki produkcji chip贸w o nazwie Intel 3 pod koniec tego roku.

Nowe procesory Intel Core Ultra b臋d膮 zawiera膰 pierwsz膮 zintegrowan膮 "jednostk臋 przetwarzania neuronowego", kt贸ra przyspieszy oprogramowanie AI w komputerach. Pierwsze wersje tych chip贸w b臋d膮 dost臋pne w komputerach od grudnia. Gelsinger obieca艂 r贸wnie偶, i偶 Intel osi膮gnie najnowocze艣niejsze mo偶liwo艣ci produkcyjne do 2025 roku.

馃煚 Elon Musk rozwa偶a wprowadzenie op艂at za korzystanie z X

Elon Musk, w艂a艣ciciel X, rozwa偶a wprowadzenie op艂at za korzystanie z platformy, aby zwalczy膰 problem bot贸w. Uwa偶a, i偶 cho膰by niewielka op艂ata miesi臋czna znacz膮co podniesie koszty utrzymania bot贸w na platformie.

X w tej chwili ma 550 milion贸w u偶ytkownik贸w miesi臋cznie, generuj膮cych 100-200 milion贸w post贸w dziennie. Po przej臋ciu platformy przez Muska, firma promuje p艂atn膮 subskrypcj臋 X Premium (wcze艣niej Twitter Blue), oferuj膮c膮 dodatkowe funkcje za $8 miesi臋cznie lub $84 rocznie.

W rozmowie z izraelskim premierem Benjaminem Netanjahu, Musk om贸wi艂 r贸wnie偶 technologi臋 AI i jej regulacje. Wyrazi艂 swoje stanowisko przeciwko antysemityzmowi, mimo niedawnego konfliktu z Anti-Defamation League, kt贸ra oskar偶y艂a Muska i X o postawy antysemickie.


Longform:

馃煛 Czy pozosta艂o zbyt wcze艣nie, aby regulowa膰 sztuczn膮 inteligencj臋? (czytaj dalej)


Chcesz pracowa膰 szybciej dzi臋ki AI? To mo偶liwe!

W ostatnich dniach zaprojektowa艂em kilka prompt贸w, kt贸re mog膮 skutecznie przyspieszy膰 Twoj膮 codzienn膮 prac臋, poszerzy膰 kreatywno艣膰 i zwi臋kszy膰 og贸ln膮 produktywno艣膰. Wi臋cej szczeg贸艂贸w znajdziesz tutaj.


Je艣li doceniasz to co robi臋 i chcesz wesprze膰 moje dzia艂ania - to chod藕my na wirtualn膮 kawk臋. Dzi臋ki za ka偶de wsparcie! - https://bit.ly/wirtualnakawa

Id藕 do oryginalnego materia艂u