Wpis z mikrobloga

Miał ktoś problem z "tnącym się obrazem" w grach i odtwarzanych filmach na Mincie?

Mint 19, Cinnamon 3.8.6. Grafika: GTX 960M. nvidia-driver-390 (wybrany w Driver MAnager, sam nic nie ściągałem ani nie konfigurowałem)

Nie chodzi o niskie FPS tylko to że obraz szatkuje gdy następuje "jakiś ruch". Gdy w Nvidia X Servers (Prime Profiles) przełączę się na zintegrowaną grafikę od Intela - wideo na YouTube ładnie chodzą. Gdy jestem przełączony na NVIdię , szatkują. W grach zintegrowanej nie testowałem ( ͡° ͜ʖ ͡°) ale na NVIDIi też problem. Takie Rocket League chodzi akurat bez szatkowania. Darkest Dungeon - przerywniki filmowe szatkują, w samej grze jedynie tło minimalnie szatkuje jak drużyna przemieszcza się po korytarzu, przy animacjach walki itd nie ma szatkownia. Rise Of Industry - tragedia, przy najmniejszym przewinięciu ekranu obraz szatkuje. The Long Dark - w sumie śmiesznie to wygląda, jak się idzie po prostu przed siebie, to nie szatkuje. Ruch kamerą - nie tragicznie ale jednak zauważalnie szatkuje.

Grafika nawet że się grzeje, ale 55-65 stopni na laptopie to chyba jeszcze nie tragedia. Na Windowsie problemu nie ma, więc sam sprzęt w porządku. Na tym samym laptopie podobny problem, co prawda z YouTube bo gier nie testowałem, występował na Lubuntu, więc wątpię żeby to była wina środowiska graficznego.

Dałoby się coś tu zrobić czy zostaje jednak granie na Windowsie?

#mint #linux
  • 15
@psi-nos: Słabo to u mnie wygląda. Generuje plik xorg.conf za pomocą nvidia-xconfig. Dostaję w odpowiedzi:

WARNING: Unable to locate/open X configuration file.

Package xorg-server was not found in the pkg-config search path.
Perhaps you should add the directory containing `xorg-server.pc'
to the PKGCONFIGPATH environment variable
No package 'xorg-server' found

Ale plik powstaje. Mogę go również utworzyć wchodząc w GUI NVIDIA X Server -> X Server Display Configuration -> Save
Na przyszłość, pzy kupowaniu następnego kompa, wiedząc że ma się zamiar używać Linuxa, warto brać GPU od AMD. Mają otwarte sterowniki bezpośrednio w kernelu, które są o wiele mniej bezproblemowe.


@59b862cef4: Ta... laptopy z amd... Działa w ogóle bumblebee z amd? (a to dopiero pierwszy z problemów)

@PodprzestrzennyKolektywPizzy: Masz tam GPU intela. To w nim raczej jest problem. Cały obraz przechodzi przez kartę intela nawet jak jest renderowany na Nvidii.
@PodprzestrzennyKolektywPizzy:

Zauważono pewien problem z wydajnością Cinnamona – z jednej strony uruchomienie Vsync zapobiega opóźnieniom >w synchronizacji i efektu „zrywania” dynamicznych elementów interfejsu (tzw. screen tearing). Z drugiej jednak Vsync >powoduje spadek liczby klatek wyświetlanych na sekundę, a co za tym idzie – opóźnienia widoczne szczególnie przy >gwałtownym przenoszeniu okien.


[](https://www.dobreprogramy.pl/Linux-Mint-nowe-wiadomosci-o-Cinnamon-4.0-i-wydaniu-bazujacym-na-Debianie,News,89432.html)

Mają to poprawić. Możesz spróbować zrobić to co tam w artykule opisują (oprócz ForceCompositionPipeline, wyłączenie VSync).
@PodprzestrzennyKolektywPizzy: Łożesz kurła, po bojach trwających pół dnia (mam chyba jakiś fetysz nadmiernego formatowania i olewania punktów przywracania) sukces. Rozwiązanie pana markackerman8-gmail.com z tego tematu okazało się strzałem w dziesiątkę. Dziękuję wszystkim za pomoc ( ͡ ͜ʖ ͡) @Kryspin013 Dobre spostrzeżenie z tym że chociaż źródłem renderowania jest karta NVIDIi to i tak obraz jest synchronizowany z ekranem poprzez zintegrowaną Intela. Teoretycznie mój problem byłby łatwy