Wpis z mikrobloga

#sztucznainteligencja #programista15k #programowanie #teoriespiskowe #epstein

Do czego uzywam 5090: Akurat leciał temat dokumentów z procesu Giuffre v. Maxwell więc ściągnąłem co było publicznie dostępne — zeznania, maile, pisma procesowe. W sumie grubo ponad 3000 stron.

Wrzuciłem to wszystko w pipeline i wle wyniki są ciekawe bo wychodzą rzeczy których nie widzdac czytając pojedyncze dokumenty, a ja jestem psychofanem teorii spiskowych.

Parę rzeczy które znalazłem:

Jest mail gdzie Epstein pisze Maxwell gotowe formułki co ma mówić dziennikarzom — że jest niewinna, że to pomówienia. Pisze jej żeby wychodziła z domu, chodziła na imprezy, "z podniesioną głową". A parę dokumentów dalej ona zeznaje pod przysięgą że w tym okresie nie miała z nim kontaktu. To leży w dwóch różnych plikach, setki stron od siebie.

Druga rzecz — wiek Giuffre. Obrona Maxwell ciśnie że Giuffre kłamała ile miała lat jak ją poznała. I faktycznie jak puścisz wszystkie jej oświadczenia przez timeline to daty się nie zgadzają idealnie — raz mówi 15 lat, raz wychodzi że prawie 17. Ale to nie jest takie proste bo wiek zgody w Nowym Jorku to 17 a na Florydzie 18, więc obie strony mają interes żeby przesuwać daty.

Graf powiązań jest chyba najbardziej użyteczny. Buduje sie siatkę kto kogo wymienia w zeznaniach i od razu widac że medialny szum nie pokrywa się z tym co jest w dokumentach. Są ludzie wymieniani przez kilku świadków niezależnie — cisza w mediach. Są ludzie którzy lecą po nagłówkach a w aktach pojawia się jedno pytanie prawnika "czy spotkałaś X" i odpowiedź "nie". Tipo Willis, DiCaprio, Blanchett — Sjoberg mówi że ich nie spotkała, ale media milaczo.

Ciekawy pattern — piąta poprawka. Jak zaznaczysz w grafie wszystkie momenty gdzie ktoś odmawia odpowiedzi, widzisz dokładnie wokół jakich tematów i osób skupiają się odmowy. Epstein robił to masowo w swoim zeznaniu. Kellen, Marcinkova — to samo.

I na bieżąco — dzisiaj Maxwell odmówiła zeznań przed komisją Kongresu, piąta poprawka na każde pytanie. Za to jej prawnik powiedział że będzie mówić jak Trump da jej ułaskawienie. W tym samym czasie kongresmeni zaczęli przeglądać nieredagowane wersje akt i wyszło że sekretarz handlu Lutnick prawdopodobnie był na wyspie Epsteina w 2012 i zapraszał go na fundraiser w 2015, mimo że publicznie twierdził że zerwał kontakt po 2005. Massie wezwał go do dymisji.
  • 29
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

@HeIlNah: baza wektorowa + dzielenie zbioru na chunks + podpinasz jakiś llm + summarizer
== consexual (heheh) retrieval. Nie jest to jakoś wybitnie trudne - zwykły usage.

Langchain + GPT i sam sobie ogarniesz POC na localu by wiedzieć jak większość EjAj tooli działa inside.
  • Odpowiedz
@JamesJoyce: I to jest zastosowanie LLMów. 10 lat temu tylko prepersi w bunkrach, dziennikarze i prawnicy mieli możliwość przerobienia tego ilości danych. A teraz każdy może sobie zrobić analizę dokumentacji, której by w ciągu całego życia nie przeczytali (nie mówię o obecnej porcji tylko całość akt).
  • Odpowiedz
@HeIlNah: umiec wykorzystywac i wykorzystywac to 2 rozne rzeczy. OP wspomnial o toeriach ale nie raczyl juz podac zrodla do kazdej teorii. AI halucynuje, do tego ogromna ilosc danych zalezy tez jak zrobi chunksy
  • Odpowiedz
@JamesJoyce: podpowiesz nieco więcej jak to na ollama lokalnie sobie ogarnąć? Jeszcze jakieś technologie wykorzystujesz? Byłbym wdzięczny za kilka punktów podsumowania jak coś takiego samemu ogarnąć lokalnie ( ͡° ͜ʖ ͡°)
  • Odpowiedz
@Ipsy: GPU? Możesz próbować ale taniej Cię wyjdzie GPT-api (jest chyba dalej prepaid) - póki nie robisz wielkiego procesowania to ez.



Z lokalnymi modeliami sprawa się kąplikuje bo by fajnie to działało to potrzebujesz minimalnej bazy - 24gb vram gpu
  • Odpowiedz
  • 18
@a5f5c1: Co potrzebujesz ze sprzętu:
Komputer z 16GB RAM minimum. Karta graficzna z 8GB VRAM (typu RTX 3060) przyspiesza robotę ale nie jest konieczna da się na samym CPU, będzie po prostu wolniej. Dysk SSD bo będzie dużo losowych odczytów z bazy.
Ollama
Wchodzisz na ollama.com, instalujesz. To jest serwer który odpala modele AI lokalnie u ciebie. Po instalacji w terminalu:
ollama pull mistral
Ściąga model Mistral 7B, ~4GB. Jak masz lepszy sprzęt to
  • Odpowiedz