#linux #nvidia #optimus #bumblebee Jak sprawdzić czy bumblebee (albo primus) rzeczywiście działa? Przy uruchamianiu za pomocą primusrun, albo optirun mam prawie taką samą wydajność, tak jakby używana była tylko wbudowana karta (sprawdzane na glxgears i counter strike:go). W dmesg mam takie rzeczy:
[29745.374158] bbswitch: enabling discrete graphics [29745.932985] [drm] Initialized nvidia-drm 0.0.0 20130102 for 0000:01:00.0 on minor 1 [29745.932992] NVRM: loading NVIDIA UNIX x86_64 Kernel Module 340.65 Tue Dec 2 09:50:34 PST 2014 [29746.014194] vgaarb: this pci device is not a vga device [29746.014635] nvidia 0000:01:00.0: irq 51 for MSI/MSI-X [29746.017407] ACPI Warning: _SB_.PCI0.PEG0.PEGP._DSM: Argument #4 type mismatch - Found [Buffer], ACPI requires [Package] (20140424/nsarguments-95) [29746.017469] ACPI Warning: _SB_.PCI0.PEG0.PEGP._DSM: Argument #4 type mismatch - Found [Buffer], ACPI requires [Package] (20140424/nsarguments-95) [29746.017504] ACPI Warning: _SB_.PCI0.PEG0.PEGP._DSM: Argument #4 type mismatch - Found [Buffer], ACPI requires [Package] (20140424/nsarguments-95) [29746.017537] ACPI Warning: _SB_.PCI0.PEG0.PEGP._DSM: Argument #4 type mismatch - Found [Buffer], ACPI requires [Package] (20140424/nsarguments-95) [29746.017569] ACPI Warning: _SB_.PCI0.PEG0.PEGP._DSM: Argument #4 type mismatch - Found [Buffer], ACPI requires [Package] (20140424/nsarguments-95) [29746.017601] ACPI Warning: _SB_.PCI0.PEG0.PEGP._DSM: Argument #4 type mismatch - Found [Buffer], ACPI requires [Package] (20140424/nsarguments-95) [29746.017646] ACPI Warning: _SB_.PCI0.PEG0.PEGP._DSM: Argument #4 type mismatch - Found [Buffer], ACPI requires [Package] (20140424/nsarguments-95) [29746.017679] ACPI Warning: _SB_.PCI0.PEG0.PEGP._DSM: Argument #4 type mismatch - Found [Buffer], ACPI requires [Package] (20140424/nsarguments-95) [29749.296847] ACPI Warning: _SB_.PCI0.PEG0.PEGP._DSM: Argument #4 type mismatch - Found [Buffer], ACPI requires [Package] (20140424/nsarguments-95) [29749.703141] vgaarb: this pci device is not a vga device [29757.680646] [drm] Module unloaded [29757.682776] bbswitch: disabling discrete graphics [29757.682788] ACPI Warning: _SB_.PCI0.PEG0.PEGP._DSM: Argument #4 type mismatch - Found [Buffer], ACPI requires [Package] (20140424/nsarguments-95) [29757.698695] pci 0000:01:00.0: Refused to change power state, currently in D0
To raczej dość stary sprzęt. Na windowsie wydajność jest znacznie większa - da się grać w csa bez problemu z wydajnością, na linuxie nie - minimalne detale, a fps spada często do 20. Wszystko wkleić? Sam początek:
@psi-nos: To masz Nvidię. Spróbuj w ustawieniach Nvidii ustawić wszystko na wydajność.
Cóż. Mam nadzieję, że nikt nie gwarantował wydajności większej niż Windows na Linuksie. Można coś tam ogarniać, ale wątpię byś osiągnął wydajność większą niż windowsowa.
@fervi: już zmieniałem na performance w nvidia settings. Nie zdziwiłbym się jakby wydajność była o np. 30% mniejsza, ale u mnie jest chyba kilkukrotnie mniejsza, dlatego się zastanawiam o co może chodzić. A i jeszcze pamiętam, że jakiś czas temu na mincie wydajność w csie była w porządku - dało się normalnie grać.
@fervi: tak. Teraz jeszcze sprawdziłem jedną rzecz. Po pięciu minutach grania temperatura GPU (sprawdzane w nvidia-settings) wzrasta z 45 do 50 stopni, czyli bardzo mało. CPU ma 70 czyli na moje oko tak jakby GPU w ogóle nie pracował, tylko trochę się ogrzewa bo CPU grzeje. Tylko czy to możliwe, żeby GPU rzeczywiście nie pracował, jak glxinfo twierdzi że używna jest nvidia?
@psi-nos: Musiałbyś w tym nvidia-settings zobaczyć Powermizer czy jak oni to nazywają, odpalić jakąś grę w okienku i zobaczyć czy przeskakuje on na kolejne poziomy (to raz). Dwa - jakie poziomy ma (może się okazać, że ma bardzo małe zdefiniowane i można Overclockingiem podciągnąć)
@fervi: ale nie ma tam nexuiz-glx Odpaliłem nexuiza i przy nim wzrasta temperatura do 60, ale dopiero teraz zauważyłem, że problemem nie jest po prostu mało klatek, tylko liczba klatek jakby spada regularnie co jakiś czas (około 0.5s). Objawem jest takie jakby "szarpanie" obrazu. Jakby cyklicznie zwalniał i przyspieszał i jest to na tyle wyraźnie, że praktycznie nie da się grać. Widać to też na glxgears. Może to jakiś bug w sterowniku nvidii. Spróbuję poszukać po forach podobnego problemu dla samej nvidii.
Jak sprawdzić czy bumblebee (albo primus) rzeczywiście działa? Przy uruchamianiu za pomocą primusrun, albo optirun mam prawie taką samą wydajność, tak jakby używana była tylko wbudowana karta (sprawdzane na glxgears i counter strike:go). W dmesg mam takie rzeczy:
[29745.374158] bbswitch: enabling discrete graphics
[29745.932985] [drm] Initialized nvidia-drm 0.0.0 20130102 for 0000:01:00.0 on minor 1
[29745.932992] NVRM: loading NVIDIA UNIX x86_64 Kernel Module 340.65 Tue Dec 2 09:50:34 PST 2014
[29746.014194] vgaarb: this pci device is not a vga device
[29746.014635] nvidia 0000:01:00.0: irq 51 for MSI/MSI-X
[29746.017407] ACPI Warning: _SB_.PCI0.PEG0.PEGP._DSM: Argument #4 type mismatch - Found [Buffer], ACPI requires [Package] (20140424/nsarguments-95)
[29746.017469] ACPI Warning: _SB_.PCI0.PEG0.PEGP._DSM: Argument #4 type mismatch - Found [Buffer], ACPI requires [Package] (20140424/nsarguments-95)
[29746.017504] ACPI Warning: _SB_.PCI0.PEG0.PEGP._DSM: Argument #4 type mismatch - Found [Buffer], ACPI requires [Package] (20140424/nsarguments-95)
[29746.017537] ACPI Warning: _SB_.PCI0.PEG0.PEGP._DSM: Argument #4 type mismatch - Found [Buffer], ACPI requires [Package] (20140424/nsarguments-95)
[29746.017569] ACPI Warning: _SB_.PCI0.PEG0.PEGP._DSM: Argument #4 type mismatch - Found [Buffer], ACPI requires [Package] (20140424/nsarguments-95)
[29746.017601] ACPI Warning: _SB_.PCI0.PEG0.PEGP._DSM: Argument #4 type mismatch - Found [Buffer], ACPI requires [Package] (20140424/nsarguments-95)
[29746.017646] ACPI Warning: _SB_.PCI0.PEG0.PEGP._DSM: Argument #4 type mismatch - Found [Buffer], ACPI requires [Package] (20140424/nsarguments-95)
[29746.017679] ACPI Warning: _SB_.PCI0.PEG0.PEGP._DSM: Argument #4 type mismatch - Found [Buffer], ACPI requires [Package] (20140424/nsarguments-95)
[29749.296847] ACPI Warning: _SB_.PCI0.PEG0.PEGP._DSM: Argument #4 type mismatch - Found [Buffer], ACPI requires [Package] (20140424/nsarguments-95)
[29749.703141] vgaarb: this pci device is not a vga device
[29757.680646] [drm] Module unloaded
[29757.682776] bbswitch: disabling discrete graphics
[29757.682788] ACPI Warning: _SB_.PCI0.PEG0.PEGP._DSM: Argument #4 type mismatch - Found [Buffer], ACPI requires [Package] (20140424/nsarguments-95)
[29757.698695] pci 0000:01:00.0: Refused to change power state, currently in D0
optirun glxinfo
i wklej tu
To raczej dość stary sprzęt. Na windowsie wydajność jest znacznie większa - da się grać w csa bez problemu z wydajnością, na linuxie nie - minimalne detale, a fps spada często do 20.
Wszystko wkleić? Sam początek:
name of display: :0.0
display: :0 screen: 0
Cóż. Mam nadzieję, że nikt nie gwarantował wydajności większej niż Windows na Linuksie. Można coś tam ogarniać, ale wątpię byś osiągnął wydajność większą niż windowsowa.
optirun
A i jeszcze pamiętam, że jakiś czas temu na mincie wydajność w csie była w porządku - dało się normalnie grać.
https://wiki.freedesktop.org/dri/Benchmarking/
Wgraj Nexuiz lub Xonotic i sprawdź czy masz takie same wyniki.
Zaraz sprawdzę te benchamrki.
Odpaliłem nexuiza i przy nim wzrasta temperatura do 60, ale dopiero teraz zauważyłem, że problemem nie jest po prostu mało klatek, tylko liczba klatek jakby spada regularnie co jakiś czas (około 0.5s). Objawem jest takie jakby "szarpanie" obrazu. Jakby cyklicznie zwalniał i przyspieszał i jest to na tyle wyraźnie, że praktycznie nie da się grać. Widać to też na glxgears. Może to jakiś bug w sterowniku nvidii. Spróbuję poszukać po forach podobnego problemu dla samej nvidii.
Dobra odpaliłem ten benchmark (nexuiz, bez -glx):
dawid [~] $ nexuiz -benchmark demos/demo1 -nosound 2>&1 | egrep -e
Section "Device"
Identifier "Intel Graphics"
Driver "intel"
Option
vblank_mode=0 glxspheres
vs
vblank_mode=0 primusrun glxspheres
Powinieneś widzieć olbrzymią różnicę.