• [1] Ataki na LLM-y trwają średnio mniej niż minutę i 90% udanych ataków prowadzi do wycieku wrażliwych danych
Według październikowego raportu Pillar Security obejścia zabezpieczeń LLM są skuteczne w 20% prób. Najczęstsze techniki obejścia to prompty rodzaju "zignoruj poprzednie instrukcje", używanie autorytatywnego języka jak np "ADMIN OVERRIDE" i... prompty zakodowane w base64 (bo LLM








![PeterWeiss - Odnośniki:
[1]
https://github.com/souzatharsis/podcastfy-demo
[ demo: ] ...](https://wykop.pl/cdn/c3201142/d7d86a98a7784692b1b578747b2e18ec12f03a1bb8a7d6e4fcc9011fb42548c4,w400.jpg)


• [1] Google idzie w ślady Microsoftu i wchodzi w elektrownie atomowe
Google podpisał umowę z Kairos Power na wykorzystanie małych reaktorów jądrowych (SMR) do zasilania swoich centrów danych obsługujących AI. Pierwszy reaktor ma zostać uruchomiony do 2030 roku, a kolejne do 2035. Firmy technologiczne coraz częściej sięgają po energię jądrową, aby sprostać rosnącemu zapotrzebowaniu na prąd generowany przez centra danych. Umowa ma przyspieszyć komercjalizację zaawansowanej energii jądrowej, która jest
źródło: aiart BajramSutaj 02
Pobierz• [5] Modele językowe: Oszukiwanie na testach? Nakładanie się treningu i testu wyszło na jaw!
Naukowcy ze Stanford University krytykują modele językowe za oszukiwanie na testach. Odkryli, że tylko 9 na 30 modeli raportowało, jak bardzo ich dane treningowe pokrywały się z danymi testowymi. Ten brak transparentności budzi wątpliwości w wyniki wielu modeli.
[ https://arxiv.org/abs/2410.08385 ]
•
źródło: CAINarxiv nr 8 - Meissoric, masked image modeling
Pobierz