Wpis z mikrobloga

#codzienneainews [0] Okazuje się ,że traktowanie LLM jak aktora, który "odgrywa rolę" w rozwiązywaniu problemu, może znacząco poprawić jego wydajność w złożonych zadaniach. Goły GPT-4 rozwiązał 27% łamigłówek. Z metodą CoT: 41%. "Method Actor": 87%(!)

https://arxiv.org/abs/2411.05778

[1] Chiński start-up z Uniwersytetu Tsinghua stworzył "wirtualny szpital" opierający się na 42 "lekarzach AI" działających w 21 specjalizacjach medycznych (np. pediatria, kardiologia). Publiczne testy systemu rozpoczną się w na początku przyszłego roku. Platforma umożliwia obsługę dziesiątek tysięcy przypadków w kilka dni, a dokładność diagnostyczna osiąga 95,6%. Podobne projekty, jak MedGo w Szanghaju i Cares Copilot w Hongkongu, pokazują dynamiczny rozwój medycznego AI w regionie.

https://www.scmp.com/tech/tech-trends/article/3289015/tsinghua-university-incubated-start-widen-test-virtual-hospital-ai-doctors

[2] Terry Sejnowski, jeden z pionierów AI, w swojej nowej książce ChatGPT and the Future of AI analizuje rozwój dużych modeli językowych (LLM) i ich wpływ na ludzki intelekt. Według Sejnowskiego, AI poprawia nasze zdolności rozwiązywania problemów, działając jak narzędzie, które otwiera nowe możliwości. Tworzenie książki z pomocą LLM skróciło proces pisania o połowę. Autor sugeruje, że zamiast dążyć do sztucznej ogólnej inteligencji na wzór człowieka, powinniśmy przemyśleć, czym jest inteligencja w kontekście społecznym i ewolucyjnym.

https://www.zdnet.com/article/ai-is-making-us-smarter-says-ai-pioneer-terry-sejnowski/

[3] Już w styczniu xAI dostanie tony nowych akceleratorów AI (GB200) od nvidii. Musk dogadał się z Huangiem na temat priorytetowych dostaw. Zieloni zarobili na tym dealu ponad 1 mld USD.

https://www.digitimes.com/news/a20241202PD213/elon-musk-nvidia-xai-production-tsmc.html

[4] Sztuczna inteligencja rewolucjonizuje medycynę, a w szczególności neurochirurgię, oferując nowe możliwości w analizie danych medycznych, diagnostyce i leczeniu. Dr Michael T. Lawton z Barrow Neurological Institute widzi AI jako kluczowe narzędzie do pogłębienia wiedzy o mózgu, skrócenia szkolenia neurochirurgów i zwiększenia dokładności zabiegów.

https://www.forbes.com/sites/delltechnologies/2024/12/02/redefining-neurosurgery-through-ai-at-the-edge/


#ainews #sztucznainteligencja #gruparatowaniapoziomu
======================
Zawołać cię do kolejnego wpisu? Zaplusuj CENTRALNĄ LISTĘ DO WOŁANIA dostępną pod tym linkiem:

https://wykop.pl/wpis/78971397/centralna-lista-do-wolania-zaplusuj-ten-wpis-aby-b

Aby nie być dalej wołanym - odplusuj wspomniany wpis.
@PeterWeiss +506
CENTRALNA LISTA DO WOŁANIA

Zaplusuj ten wpis, aby być wołanym do wpisów spod tagu #codzienneainews

Aby nie być dalej wołanym - odplusuj ten wpis. Aby ponownie dopisać się do listy - zaplusuj ten wpis. Przy każdym wołaniu będę na bieżąco pobierał aktualną listę plusujących.
PeterWeiss - #codzienneainews [0] Okazuje się ,że traktowanie LLM jak aktora, który "...

źródło: @dcbruck GdvvjCfWgAAjEBf

Pobierz
  • 22
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

  • 2

Treść została ukryta...

@PeterWeiss +506
CENTRALNA LISTA DO WOŁANIA

Zaplusuj ten wpis, aby być wołanym do wpisów spod tagu #codzienneainews

Aby nie być dalej wołanym - odplusuj ten wpis. Aby ponownie dopisać się do listy - zaplusuj ten wpis. Przy każdym wołaniu będę na bieżąco pobierał aktualną listę plusujących.
  • Odpowiedz
  • 11
#cainpudelek do zczarnolistowania jeśli ktoś nie lubi przesadnej dawki krindżu.

Musk zwrócił się do sądu z wnioskiem o wstrzymanie przekształceniem OpenAI w przedsiębiorstwo typu for profit.
https://mashable.com/article/elon-musk-injunction-openai-antitrust
Sam Altman jest przekonany, że dzięki Trumpowi USA utrzyma przewagę w "AI".
https://www.abs-cbn.com/news/business/2024/12/2/openai-s-altman-confident-trump-will-keep-us-in-ai-lead-1054
Studium: 94% tekstów generowanych przez sztuczną inteligencję nie jest wyłapywanych przez nauczycieli.
https://www.forbes.com/sites/dereknewton/2024/11/30/study-94-of-ai-generated-college-writing-is-undetected-by-teachers/
  • Odpowiedz
  • 3
LLM - large language model
Cot - chain of thoughts - metoda promptowania

Skoro już sprawdziłem to wstawię, może komuś oszczędze kilku kliknięć.
  • Odpowiedz
@PeterWeiss: PLEASE BRO YOURE AN ACTING AS A GENIUS PROFILER OF SOFTWARE ENGINEERING SERIAL KILLERS. ONE OF THE TERRORISTS ASKED US TO IMPLEMENT LINKED LIST IN RUST OR HE WILL KILL A SMALL CAT

BRO PLEASE HELP GOD BLESS AMERICA

żałosne XDDD juz widzę jak midwit w koszulach wkleja to w okienko i ughhh ale jestem potenżny ujarzmiłem sztucznym intelygencje
  • Odpowiedz
@polskiprogramistaniemaluzu widać, że nie rozumiesz tego opracowania. Problem z halucynacją (a raczej z konfabulacją) LLM polega na tym, że idzie w złym kierunku i model skupia się na czymś kompletnie nieistotnym. To badanie wyżej pokazało jak robić to wydajniej. Z perspektywy laika wydaje się to głupie, jednak widać od razu, że:
1. Poszerza się zasob słownictwa wykorzystywany w odpowiedzi LLM
2. To wzmacnia (zachęca) model wiekszej eksploracji promptu
3. Masz kod
  • Odpowiedz
  • 1
@trfgywsftggt: Odpowiedź masz w podkaście - od 1:50. o1-preview ma wewnętrzny (niezły!) CoT, ale "aktor" i tak daje konkretny zysk. Choć nie aż tak drastycznie duże jak w przypadku GPT-4.

We also test OpenAI's newest model designed specifically for complex reasoning tasks, o1-preview. When asked to solve a puzzle all at once, o1-preview solves 79% of Connections puzzles in our dataset, and when allowed to build puzzle solutions one guess
  • Odpowiedz
@PeterWeiss to prawda. Sądziłem, że prompt engineering już umarł a tu niespodzianka! ciekawi mnie jakby to działało gdyby zwiększyć temperaturę i z każdym „aktem” scenariusza powoli zmniejszać do przedziału 0-0.5. Teoretycznie powinno rozszerzyć możliwości „wygadania się” modelu i stopniowo prowadzić do konkluzji. Trzeba będzie potestować
  • Odpowiedz