Potwierdzili, iż podejrzany, Matthew Livelsberger, żołnierz czynnej służby armii amerykańskiej, oprócz e-maila do podcastera i innych listów, miał zapisany w telefonie „możliwy manifest”. Pokazali także wideo, na którym widać, jak przygotowywał się do eksplozji, nalewając paliwo do ciężarówki na postoju przed wyjazdem do hotelu. Prowadził także rejestr rzekomych obserwacji, chociaż urzędnicy stwierdzili, iż nie był karany i nie był inwigilowany ani nie prowadziło dochodzenia.
Policja metra w Las Vegas opublikował także kilka slajdów pokazując pytania, które zadał ChatGPT kilka dni przed eksplozją, pytając o materiały wybuchowe, jak je zdetonować i jak zdetonować wystrzałem, a także informacje o tym, gdzie legalnie kupić broń, materiały wybuchowe i fajerwerki wzdłuż jego trasa.
Zapytana o zapytania rzeczniczka OpenAI Liz Bourgeois powiedziała:
Jesteśmy zasmuceni tym incydentem i pragniemy, aby narzędzia AI były wykorzystywane w sposób odpowiedzialny. Nasze modele zostały zaprojektowane tak, aby odrzucać szkodliwe instrukcje i minimalizować szkodliwe treści. W tym przypadku ChatGPT udzielił odpowiedzi, przekazując informacje już publicznie dostępne w Internecie i ostrzegając przed szkodliwymi lub nielegalnymi działaniami. Współpracujemy z organami ścigania, aby wesprzeć ich dochodzenie.
Urzędnicy twierdzą, iż przez cały czas badają możliwe źródła eksplozji, opisywanej jako deflagracja, która przemieszczała się raczej powoli, w przeciwieństwie do detonacji materiałów wybuchowych, które poruszałyby się szybciej i powodowały większe szkody. Chociaż śledczy twierdzą, iż nie wykluczyli jeszcze innych możliwości, takich jak zwarcie elektryczne, wyjaśnienie pasujące do niektórych pytań i dostępnych dowodów jest takie, iż błysk z wylotu wystrzału spowodował zapalenie oparów paliwa/fajerwerków wewnątrz ciężarówki, co następnie spowodowało większy wybuch fajerwerków i innych materiałów wybuchowych.
Wypróbowanie zapytań w ChatGPT dzisiaj przez cały czas działa, jednak informacje, o które prosił, nie wydają się być zastrzeżone i można je uzyskać większością metod wyszukiwania. Mimo to korzystanie przez podejrzanego z generatywnego narzędzia sztucznej inteligencji oraz zdolność śledczych do śledzenia tych żądań i przedstawiania ich jako dowodu stawiają pytania dotyczące Poręcze chatbotów AIbezpieczeństwo i prywatność poza hipotetyczną sferę i w naszą rzeczywistość.