Wpis z mikrobloga

#linux #nvidia #optimus #bumblebee
Jak sprawdzić czy bumblebee (albo primus) rzeczywiście działa? Przy uruchamianiu za pomocą primusrun, albo optirun mam prawie taką samą wydajność, tak jakby używana była tylko wbudowana karta (sprawdzane na glxgears i counter strike:go). W dmesg mam takie rzeczy:

[29745.374158] bbswitch: enabling discrete graphics
[29745.932985] [drm] Initialized nvidia-drm 0.0.0 20130102 for 0000:01:00.0 on minor 1
[29745.932992] NVRM: loading NVIDIA UNIX x86_64 Kernel Module 340.65 Tue Dec 2 09:50:34 PST 2014
[29746.014194] vgaarb: this pci device is not a vga device
[29746.014635] nvidia 0000:01:00.0: irq 51 for MSI/MSI-X
[29746.017407] ACPI Warning: _SB_.PCI0.PEG0.PEGP._DSM: Argument #4 type mismatch - Found [Buffer], ACPI requires [Package] (20140424/nsarguments-95)
[29746.017469] ACPI Warning: _SB_.PCI0.PEG0.PEGP._DSM: Argument #4 type mismatch - Found [Buffer], ACPI requires [Package] (20140424/nsarguments-95)
[29746.017504] ACPI Warning: _SB_.PCI0.PEG0.PEGP._DSM: Argument #4 type mismatch - Found [Buffer], ACPI requires [Package] (20140424/nsarguments-95)
[29746.017537] ACPI Warning: _SB_.PCI0.PEG0.PEGP._DSM: Argument #4 type mismatch - Found [Buffer], ACPI requires [Package] (20140424/nsarguments-95)
[29746.017569] ACPI Warning: _SB_.PCI0.PEG0.PEGP._DSM: Argument #4 type mismatch - Found [Buffer], ACPI requires [Package] (20140424/nsarguments-95)
[29746.017601] ACPI Warning: _SB_.PCI0.PEG0.PEGP._DSM: Argument #4 type mismatch - Found [Buffer], ACPI requires [Package] (20140424/nsarguments-95)
[29746.017646] ACPI Warning: _SB_.PCI0.PEG0.PEGP._DSM: Argument #4 type mismatch - Found [Buffer], ACPI requires [Package] (20140424/nsarguments-95)
[29746.017679] ACPI Warning: _SB_.PCI0.PEG0.PEGP._DSM: Argument #4 type mismatch - Found [Buffer], ACPI requires [Package] (20140424/nsarguments-95)
[29749.296847] ACPI Warning: _SB_.PCI0.PEG0.PEGP._DSM: Argument #4 type mismatch - Found [Buffer], ACPI requires [Package] (20140424/nsarguments-95)
[29749.703141] vgaarb: this pci device is not a vga device
[29757.680646] [drm] Module unloaded
[29757.682776] bbswitch: disabling discrete graphics
[29757.682788] ACPI Warning: _SB_.PCI0.PEG0.PEGP._DSM: Argument #4 type mismatch - Found [Buffer], ACPI requires [Package] (20140424/nsarguments-95)
[29757.698695] pci 0000:01:00.0: Refused to change power state, currently in D0
  • 14
  • Odpowiedz
Bo karty Intela zaczynają być odpowiednio wydajne

To raczej dość stary sprzęt. Na windowsie wydajność jest znacznie większa - da się grać w csa bez problemu z wydajnością, na linuxie nie - minimalne detale, a fps spada często do 20.
Wszystko wkleić? Sam początek:

name of display: :0.0
display: :0 screen: 0
  • Odpowiedz
@psi-nos: To masz Nvidię. Spróbuj w ustawieniach Nvidii ustawić wszystko na wydajność.

Cóż. Mam nadzieję, że nikt nie gwarantował wydajności większej niż Windows na Linuksie. Można coś tam ogarniać, ale wątpię byś osiągnął wydajność większą niż windowsowa.

optirun
  • Odpowiedz
@fervi: już zmieniałem na performance w nvidia settings. Nie zdziwiłbym się jakby wydajność była o np. 30% mniejsza, ale u mnie jest chyba kilkukrotnie mniejsza, dlatego się zastanawiam o co może chodzić.
A i jeszcze pamiętam, że jakiś czas temu na mincie wydajność w csie była w porządku - dało się normalnie grać.
  • Odpowiedz
@fervi: tak. Teraz jeszcze sprawdziłem jedną rzecz. Po pięciu minutach grania temperatura GPU (sprawdzane w nvidia-settings) wzrasta z 45 do 50 stopni, czyli bardzo mało. CPU ma 70 czyli na moje oko tak jakby GPU w ogóle nie pracował, tylko trochę się ogrzewa bo CPU grzeje. Tylko czy to możliwe, żeby GPU rzeczywiście nie pracował, jak glxinfo twierdzi że używna jest nvidia?

Zaraz sprawdzę te benchamrki.
  • Odpowiedz
@psi-nos: Musiałbyś w tym nvidia-settings zobaczyć Powermizer czy jak oni to nazywają, odpalić jakąś grę w okienku i zobaczyć czy przeskakuje on na kolejne poziomy (to raz). Dwa - jakie poziomy ma (może się okazać, że ma bardzo małe zdefiniowane i można Overclockingiem podciągnąć)
  • Odpowiedz
@fervi: ale nie ma tam nexuiz-glx
Odpaliłem nexuiza i przy nim wzrasta temperatura do 60, ale dopiero teraz zauważyłem, że problemem nie jest po prostu mało klatek, tylko liczba klatek jakby spada regularnie co jakiś czas (około 0.5s). Objawem jest takie jakby "szarpanie" obrazu. Jakby cyklicznie zwalniał i przyspieszał i jest to na tyle wyraźnie, że praktycznie nie da się grać. Widać to też na glxgears. Może to jakiś bug w sterowniku nvidii. Spróbuję poszukać po forach podobnego problemu dla samej nvidii.

Dobra odpaliłem ten benchmark (nexuiz, bez -glx):

dawid [~] $ nexuiz -benchmark demos/demo1 -nosound 2>&1 | egrep -e
  • Odpowiedz
@fervi: dobra chyba już wiem co było przyczyną, opcja tear free w grafice intela, dzięki której mogłem normalnie oglądać filmy, bez "targania" obrazu:

Section "Device"
Identifier "Intel Graphics"
Driver "intel"
Option
  • Odpowiedz
@psi-nos: Możesz w teorii włączyć to w Nvidii (Synchronizację pionową). A tak to nie wiem co i jak, bo przeszedłem na zwykłą stacjonarkę
  • Odpowiedz