Gigant technologiczny przewiduje, iż wspierane przez państwo chińskie grupy cybernetyczne będą atakować ważne wybory w 2024 r., po próbie przeprowadzonej podczas wyborów prezydenckich na Tajwanie.
Microsoft podkreśla, iż Chiny prawdopodobnie wykorzystają treści generowane przez sztuczną inteligencję, takie jak memy, filmy i nagrania audio rozpowszechniane za pośrednictwem mediów społecznościowych, aby wpływać na opinie na ich korzyść.
Realne zagrożenie
„Chiny zwiększyły (…) wykorzystanie treści generowanych przez sztuczną inteligencję do realizacji swoich celów na całym świecie. Korea Północna zwiększyła liczbę kradzieży kryptowalut i ataków na łańcuch dostaw, aby finansować i wspierać swoje cele wojskowe i gromadzenie danych wywiadowczych. (Chiny – przyp. red.) zaczęły również wykorzystywać sztuczną inteligencję, aby zwiększyć skuteczność i wydajność swoich operacji” – czytamy w komunikacie opublikowanym na blogu firmy Microsoft.
Raport zespołu Microsoft Threat Analysis Center zawiera następujące wnioski: na fałszywych kontach w mediach społecznościowych prowadzone przez podmioty powiązane z Komunistyczną Partią Chin zaczęto zadawać kontrowersyjne pytania dotyczące kontrowersyjnych kwestii wewnętrznych w USA, aby lepiej zrozumieć najważniejsze kwestie, które dzielą amerykańskich wyborców. Może to mieć na celu zebranie danych wywiadowczych i precyzyjne określenie kluczowych danych demograficznych przed wyborami prezydenckimi w Stanach Zjednoczonych.
Treści z AI jest coraz więcej
Dodajmy, iż w ostatnich miesiącach zwiększyło się wykorzystanie treści generowanych przez chińską sztuczną inteligencję. Na wszelkie sposoby próbuje się wpływać i siać podziały w USA i innych krajach na szereg tematów, takich jak wykolejenie pociągu w Kentucky w listopadzie 2023 r., pożary na Maui w sierpniu 2023 r., usuwanie japońskich ścieków nuklearnych, zażywanie narkotyków w USA, a także polityka imigracyjna i rasowa.
Wyjaśnijmy, iż w wyborach, które odbyły się na Tajwanie, grupa wspierana przez Pekin rozpowszechniała memy generowane przez sztuczną inteligencję i fałszywe nagrania audio, aby wpłynąć na wyborców.