Wpis z mikrobloga

#codzienneainews przegląd prac naukowych #cainarxiv

#motoryzacja w [1] #kosmos w [2], [3] i [8]

[1] Wciśnij przycisk, żeby driftować
Toyota Research Institute i Rensselaer Polytechnic Institute wyszkoliły model SI do driftowania samochodami. Jest to nowe podejście oparte na uczeniu ze wzmocnieniem (RL). Technika wykorzystuje funkcję "nagrody" opartą na parametrze energii pochłanianej przez opony samochod, aby zachęcić model do utrzymywania wysokich kątów znoszenia bocznego podczas śledzenia punktów trasy.

Eksperymenty na Toyocie GR Supra i Lexusie LC 500 pokazują, że agent jest w stanie płynnie driftować na różnych trasach z marginesem błędu wynoszącym zaledwie 10 cm, a jednocześnie stabilnie ustawiając pojazdy do kąta poślizgu wynoszącego 63°.

Różni się to od wcześniejszych metod, które często opierały się na wstępnie obliczonych trajektoriach lub heurystyce kontroli znoszenia.
[ https://arxiv.org/abs/2410.20990 ]

[2] Dyfuzja pomaga w przewidywaniu zmian korony słonecznej
Naukowcy z University of Rome Tor Vergata, IA, Instituto di Astrofisica e Sinensis do Espaco, University of Coimbra i innych instytucji wykorzystali Denoising Diffusion Probabilistic Model (DDPM) do przewidywania zmian zachodzących w koronie słonecznej. To nowe podejście może generować symulacje z 96% przedziałem wiarygodności.
[ https://arxiv.org/abs/2410.20843 ]

[3] Uczenie kontrastowe pomaga w klasyfikacji próbek księżycowych
Naukowcy z Europejskiej Agencji Kosmicznej i Uniwersytetu w Oslo wykorzystali nową technikę zwaną uczeniem kontrastowym, aby sklasyfikować skały księżycowe z dokładnością 98,4%. Może to pomóc astronautom zidentyfikować obiecujące próbki do przyszłych misji. Podejście to różni się od poprzednich badań, które opierały się na tradycyjnych metodach uczenia maszynowego.
[ https://arxiv.org/abs/2410.21024 ]

[4] Zwiększenie zaufania i bezpieczeństwa w płatnościach cyfrowych: Podejście oparte na LLM
Naukowcy z Google wykorzystują LLM do zwalczania oszustw związanych z płatnościami cyfrowymi. Wyszkolili oni model do analizowania tekstu i identyfikowania podejrzanych wzorców w transakcjach UPI i Google Pay.
Model oparty na Gemini Ultra zaliczył 93,33% dokładność w klasyfikacji oszustw. Ponadto wykazał 89% dokładność w generowaniu uzasadnień dla tych klasyfikacji. Zidentyfikował również wiele nowych podejrzeń o oszustwo, które zostały przeoczone przez ludzkich recenzentów.
[ https://arxiv.org/abs/2410.19845 ]

[5] Kto pyta - nie błądzi
Naukowcy z from UC Berkeley i McGill University zbadali jak agenci uczący się przez wzmocnienie (RL) mogą radzić sobie z błędną generalizacją celów, czyli sytuacją, w której agent wykonuje zadanie podczas treningu, ale popełnia błędy w nowych nieco innych sytuacjach. Aby temu zaradzić, autorzy proponują pozwolenie agentowi na proszenie o pomoc, gdy napotka nieznany scenariusz. Badania przeprowadzono w środowisku CoinRun, gdzie cel agenta zmienia się między treningiem a testowaniem.

Testowano dwie metody sygnalizowania, kiedy agent powinien poprosić o pomoc: metodę opartą na działaniach (wykorzystującą wewnętrzną niepewność agenta) i metodę opartą na obserwacjach (wykrywającą nietypowe elementy w środowisku). Obie metody nieco poprawiły wyniki agenta, jednak zaskakująco lepsze efekty dawało... losowe proszenie o pomoc. To sugeruje, że agent może nie mieć wystarczającego zrozumienia otoczenia, co utrudnia ocenę, kiedy rzeczywiście potrzebuje pomocy. Autorzy podkreślają wagę uczenia agentów RL lepszego rozumienia środowiska, co mogłoby zwiększyć ich niezawodność w rzeczywistych zastosowaniach.
[ https://arxiv.org/abs/2410.21052 ]

[6] Wykorzystanie sieci neuronowych do przewidywania ruchu małp na podstawie ich myśli
Naukowcy z Uniwersytetu w Zurychu i ETH Zurich opracowali nowy model sztucznej inteligencji o nazwie AEGRU, który może dekodować ruchy małp z ich fal mózgowych z niewiarygodną wręcz dokładnością. Model ten wykorzystuje autoenkoder podczas szkolenia osiągając wynik R^2 na poziomie 0,71, wyprzedzając wszystkie modele bazowe.
[ https://arxiv.org/abs/2410.22283 ]

[7] Chain-of-thought niekiedy szkodzi
Naukowcy z Princeton i NYU odkryli, że zmuszanie LLM-ów do "głośnego myślenia" (chain-of-thought) może w rzeczywistości zaszkodzić ich wydajności w niektórych zadaniach. Przetestowali to na zadaniach, w których ludzie zmagają się z nadmiernym myśleniem, takich jak uczenie się złożonych wzorców. W jednym przypadku dokładność modelu spadła o 36,3%, gdy zastosowano promptowanie w postaci CoT.
[ https://arxiv.org/abs/2410.21333 ]

[8] Flow Matching analizuje atmosfery egzoplanet
Naukowcy z Max Planck Institute for Intelligent Systems i ETH Zurich opracowali nową metodę uczenia maszynowego o nazwie Flow Matching Posterior Estimation (FMPE) do analizy atmosfer egzoplanet. FMPE jest szybsza i bardziej elastyczna niż poprzednie metody i może dostosowywać się do różnych poziomów zakłóceń bez konieczności ponownego szkolenia.
[ https://arxiv.org/abs/2410.21477 ]

[9]
Naukowcy z Tsinghua University Shenzhen Graduate School opracowali nowy model zwany pLDDT-Predictor, który może szybko ocenić jakość struktur białkowych. W przeciwieństwie do poprzednich metod, które opierają się na złożonych modelach, takich jak AlphaFold2, pLDDT-Predictor wykorzystuje wstępnie wytrenowane modele języka białkowego i architektury Transformer w celu szybszego i bardziej wydajnego przewidywania. W efekcie jest on znacznie szybszy niż inne metody, przetwarzając 100 białek na sekundę.
[ https://arxiv.org/abs/2410.21283 ]

#sztucznainteligencja #gruparatowaniapoziomu
PeterWeiss - #codzienneainews przegląd prac naukowych #CAINarxiv

#motoryzacja w [1] ...

źródło: unknown artists 01

Pobierz
  • 2
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

  • 17
Bonus: praktyczne roboty od Physical Intelligence

Podczas gdy obecne modele SI imponują w zadaniach obliczeniowych i generatywnych, ich niemoc w świecie fizycznym zawsze była uderzająca. Paradoksalne, prawda? AI może projektować leki, ale nie potrafi złożyć ręcznika.

Physical Intelligence właśnie zaprezentowało rozwiązanie, które może to zmienić - model π0. To nie jest kolejna iteracja chatbota czy generator obrazów. To kompleksowy system łączący rozumienie języka naturalnego z precyzyjną kontrolą robotów w świecie fizycznym. Wykorzystuje zaawansowaną architekturę
PeterWeiss - Bonus: praktyczne roboty od Physical Intelligence

Podczas gdy obecne mo...
  • Odpowiedz