- NVIDIA Optimus (Русский)
- Contents
- Отключить один из GPU
- Используя драйвера Nvidia
- Альтернативная конфигурация
- Экранные менеджеры
- LightDM
- Проверка 3D
- Проблемы
- Тиринг и неработающий VSync
- EDID errors in Xorg.log
- Используя nouveau
- Используя Bumblebee
- Используя PRIME Render Offload
- Использование
- Решение проблем
- Не запускается модуль Nvidia
- Некорректная работа графического окружения
- NVIDIA
- Contents
- Installation
- Unsupported drivers
- Custom kernel
- DRM kernel mode setting
- Early loading
- Hardware accelerated video decoding
- Hardware accelerated video encoding with NVENC
- Xorg configuration
- Automatic configuration
- nvidia-settings
- Manual configuration
- Minimal configuration
- Disabling the logo on startup
- Overriding monitor detection
- Enabling brightness control
- Enabling SLI
- Multiple monitors
- Using nvidia-settings
- ConnectedMonitor
- TwinView
- Mosaic mode
- Wayland
NVIDIA Optimus (Русский)
NVIDIA Optimus — технология, которая дает интегрированной графике Intel и дискретной Nvidia работать сообща в лаптопах. Чтобы заставить Optimus работать в Arch Linux потребуется сделать несколько непростых шагов, описанных ниже. Вот доступные решения:
- #Отключить один из GPU в BIOS, что увеличит продолжительность работы батареи, если отключить чип Nvidia. Но это невозможно сделать в некоторых BIOS.
- Использование официальной поддержки Optimus включенной в проприетарный драйвер Nvidia, который предоставит хороший опыт работы, в сравнении с nouveau, с картами Nvidia, но не поддерживает переключения GPU и содержит больше ошибок.
- #Используя PRIME Render Offload — официальный метод NVIDIA для поддержки переключаемой графики.
- #Используя nouveau — эти драйвера поддерживают переключение GPU, но предоставляют более низкую производительность, чем проприетарный драйвер Nvidia, также, до сих пор, не реализовано никакого энергосбережения. Не работают с новейшими Nvidia GPU.
- #Используя Bumblebee — решения сторонних разработчиков для реализации функционала подобного Optimus, поддерживающего переключение GPU и энергосбережение, но требующего более тонкой настройки.
Contents
Отключить один из GPU
Если требуется использовать только один из видеоадаптеров, проверьте опции BIOS. Найдите опцию, отключающую один из них. Некоторые лаптопы поддерживают отключение только одного из чипов. Если необходимо использовать обе видеокарты или невозможно отключить ту, что не нужна ищите решение ниже.
Используя драйвера Nvidia
Проприетарный драйвер Nvidia не поддерживает динамического переключения в отличие от nouveau. В наличии проблемы с тирингом, о которых Nvidia знает, но не спешит исправлять. Однако, эти драйвера предоставляют более высокую производительность в сравнении с драйверами nouveau.
Первым делом, установите пакеты nvidia, nvidia-libgl и xorg-xrandr из официальных репозиториев. После настройте xorg.conf. Узнайте PCI адрес карты Nvidia, для этого введите:
PCI адрес выглядит примерно так 01:00.0. В xorg.conf, отредактируйте 01:00.0 на 1:0:0.
Если X.ORG X сервер версии 1.17.2 и выше:
Для более старых версий X сервера:
Далее добавьте в начало
/.xinitrc две строки:
Теперь перезагрузитесь для запуска драйверов и X. Если dpi дисплея не верный добавьте строку:
Если при загрузке X появился черный экран, удостоверьтесь, что в файле
/.xinitrc нет & перед xrandr. Если & есть, то видимо оконный менеджер запускается раньше, чем команда xrandr завершает выполнение, что и приводит к черному экрану.
Если черный экран еще есть, смотрите #Альтернативная конфигурация ниже.
Альтернативная конфигурация
Если возникли сбои в работе Xorg-server 1.17.1 и выше с описанной выше конфигурацией, измените раздел для Intel в /etc/X11/xorg.conf как показано ниже:
Как указано выше BusID должен совпадать с выводом lspci. Найдите строку с «VGA compatible controller», которая содержит «Intel». Например: $ lspci | grep VGA 00:02.0 VGA compatible controller: Intel Corporation Haswell-ULT Integrated Graphics Controller (rev 0b)
Если X запустился, но на экране ничего не происходит, проверьте содержит ли /var/log/xorg.conf подобную строку:
Если да, проблема может исчезнуть при добавлении раздела ServeLayout в /etc/X11/xorg.conf
Экранные менеджеры
При использовании менеджеров входа, создайте или отредактируйте скрипт настройки вместо использования
LightDM
Сделайте этот скрипт выполняемым:
Теперь настройте LightDM для запуска скрипта, отредактировав раздел [Seat:*] в /etc/lightdm/lightdm.conf:
Теперь перезагрузитесь и DM запуститься.
Для GDM создайте новый файл .desktop:
Удостоверьтесь, что GDM использует X как стандартный бэкенд.
Проверка 3D
Для проверки работает ли чип Nvidia установите mesa-demos и запустите:
$ glxinfo |grep NVIDIA
Проблемы
Тиринг и неработающий VSync
Для решения проблемы необходим xorg-server 1.19 или выше, ядро linux 4.5 или выше и nvidia 370.23 или выше. Затем включите «DRM kernel mode setting», что, в свою очередь, включит синхронизацию PRIME и исправит разрывы изображения.
См. также подробности в обсуждении на официальном форуме.
Также есть отчёт, что ядро linux 5.4 нарушает синхронизацию PRIME.
EDID errors in Xorg.log
Эта ошибка возникает когда драйвер nvidia не определяет EDID для дисплея. Необходимо вручную указать путь к файлу EDID или предоставить ту же информацию подобным образом.
Для предоставления пути к файлу EDID отредактируйте раздел «Device» для NVIDIA в Xorg.conf, добавив эти строки. Не забудьте изменить поля в соответствии с вашей системой:
Если Xorg не запускается попробуйте поменять ссылки CRT на DFB. card0 это идентификатор чипа Intel, который подключен к дисплею с помощью LVDS. Если расположение аппаратных средств отличается, значение пользовательского EDID может быть другим. Путь же будет начинаться с /sys/class/drm.
Используя nouveau
Свободные драйвера nouveau (xf86-video-nouveau)могут динамически переключаться с драйвером Intel (xf86-video-intel) используя технологию PRIME. Для более подробной информации смотрите PRIME.
Используя Bumblebee
Если хотите использовать Bumblebee, который поддерживает энергосбережение и другие полезные функции, смотрите Bumblebee.
Используя PRIME Render Offload
С выходом драйвера NVIDIA версии 435.17 появилась возможность использовать PRIME Render Offload. xf86-video-modesetting , xf86-video-amdgpu (450.57), и xf86-video-intel (455.38) официально поддерживаются как iGPU драйвера.
Использование
Чтобы запустить программу на карточке от NVIDIA, вы можете использовать prime-run — скрипт из nvidia-prime :
Можно писать всё вручную, к примеру, запуск Firefox:
Тот же запуск, но с использованием nvidia-prime :
Также доступен пакет prime AUR , который содержит в себе уже настроенный файл xorg.conf (Русский). Пример использования:
Решение проблем
Если по какой-либо причине автоматическая конфигурация не работает, то отредактируйте файл xorg.conf:
Проверьте, что загрузились оба модуля видеокарт:
См. официальную инструкцию по настройке для получения более подробной информации.
Если у вас установлен пакет bumblebee , вам следует убрать его, потому что он блокирует драйвер nvidia_drm, который необходим для загрузки драйвера nvidia X сервером для разгрузки (offloading).
Не запускается модуль Nvidia
Это можно решить, добавив в xorg.conf следующие строки:
Некорректная работа графического окружения
Иногда возникают различные ошибки связанные с использованием драйвера modesetting. Для решения таких проблем можно использовать драйвер intel или другие.
Основное требование к драйверу — использование и поддержка модуля Glamor.
Тогда блок конфигурации видеокарты Intel c драйвером intel будет выглядеть следующим образом.
Проверьте, что загрузились оба модуля видеокарт:
Источник
NVIDIA
This article covers the proprietary NVIDIA graphics card driver. For the open-source driver, see Nouveau. If you have a laptop with hybrid Intel/NVIDIA graphics, see NVIDIA Optimus instead.
Contents
Installation
These instructions are for those using the stock linux or linux-lts packages. For custom kernel setup, skip to the next subsection.
1. If you do not know what graphics card you have, find out by issuing:
2. Determine the necessary driver version for your card by:
- Finding the code name (e.g. NV50, NVC0, etc.) on Nouveau wiki’s code names page or [1].
- Looking up the name in NVIDIA’s legacy card list: if your card is not there you can use the latest driver.
- Visiting NVIDIA’s driver download site.
3. Install the appropriate driver for your card:
- For GeForce 630-900, 10-20, and Quadro/Tesla/Tegra K-series cards and newer [NVE0, NV110 and newer family cards from around 2010 and later], install the nvidia package (for use with the linux kernel) or nvidia-lts (for use with the linux-lts kernel) package.
- If these packages do not work, nvidia-betaAUR may have a newer driver version that offers support.
- For GeForce 400/500/600 series cards [NVCx and NVDx] from around 2010-2011, install the nvidia-390xx-dkmsAUR package.
- For even older cards (released in 2010 or earlier), have a look at #Unsupported drivers.
4. For 32-bit application support, also install the corresponding lib32 nvidia package from the multilib repository (e.g. lib32-nvidia-utils ).
5. Reboot. The nvidia package contains a file which blacklists the nouveau module, so rebooting is necessary.
Once the driver has been installed, continue to #Xorg configuration.
Unsupported drivers
If you have a GeForce 300 series card or older (released in 2010 or earlier), Nvidia no longer supports drivers for your card. This means that these drivers do not support the current Xorg version. It thus might be easier if you use the Nouveau driver, which supports the old cards with the current Xorg.
However, Nvidia’s legacy drivers are still available and might provide better 3D performance/stability.
- For GeForce 8/9, ION and 100-300 series cards [NV5x, NV8x, NV9x and NVAx], install the nvidia-340xx-dkmsAUR package.
- GeForce 7 series cards and older [NV6x, NV4x and lower] do not have a driver packaged for Arch Linux.
Custom kernel
If you are using a custom kernel, compilation of the Nvidia kernel modules can be automated with DKMS.
Install the nvidia-dkms package (or a specific branch). The Nvidia module will be rebuilt after every Nvidia or kernel update thanks to the DKMS pacman hook.
DRM kernel mode setting
Early loading
For basic functionality, just adding the kernel parameter should suffice. If you want to ensure it’s loaded at the earliest possible occasion, or are noticing startup issues (such as the nvidia kernel module being loaded after the display manager) you can add nvidia , nvidia_modeset , nvidia_uvm and nvidia_drm to the initramfs according to Mkinitcpio#MODULES.
If added to the initramfs, do not forget to run mkinitcpio every time there is a nvidia driver update. See #Pacman hook to automate these steps.
Pacman hook
To avoid the possibility of forgetting to update initramfs after an NVIDIA driver upgrade, you may want to use a pacman hook:
Make sure the Target package set in this hook is the one you have installed in steps above (e.g. nvidia , nvidia-dkms , nvidia-lts or nvidia-ck-something ).
Hardware accelerated video decoding
Accelerated video decoding with VDPAU is supported on GeForce 8 series cards and newer. Accelerated video decoding with NVDEC is supported on Fermi (
400 series) cards and newer. See Hardware video acceleration for details.
Hardware accelerated video encoding with NVENC
NVENC requires the nvidia_uvm module and the creation of related device nodes under /dev . Manually loading the nvidia_uvm module will not create the device nodes, but invoking the nvidia-modprobe utility will. Create /etc/udev/rules.d/70-nvidia.rules :
Xorg configuration
The proprietary NVIDIA graphics card driver does not need any Xorg server configuration file. You can start X to see if the Xorg server will function correctly without a configuration file. However, it may be required to create a configuration file (prefer /etc/X11/xorg.conf.d/20-nvidia.conf over /etc/X11/xorg.conf ) in order to adjust various settings. This configuration can be generated by the NVIDIA Xorg configuration tool, or it can be created manually. If created manually, it can be a minimal configuration (in the sense that it will only pass the basic options to the Xorg server), or it can include a number of settings that can bypass Xorg’s auto-discovered or pre-configured options.
Automatic configuration
The NVIDIA package includes an automatic configuration tool to create an Xorg server configuration file ( xorg.conf ) and can be run by:
This command will auto-detect and create (or edit, if already present) the /etc/X11/xorg.conf configuration according to present hardware.
If there are instances of DRI, ensure they are commented out:
Double check your /etc/X11/xorg.conf to make sure your default depth, horizontal sync, vertical refresh, and resolutions are acceptable.
nvidia-settings
The nvidia-settings tool lets you configure many options using either CLI or GUI. Running nvidia-settings without any options launches the GUI, for CLI options see nvidia-settings(1) .
You can run the CLI/GUI as a non-root user and save the settings to
/.nvidia-settings-rc or save it as xorg.conf by using the option Save to X configuration File for a multi-user environment.
/.nvidia-settings-rc for the current user:
See Autostarting to start this command on every boot.
/.nvidia-settings-rc and/or Xorg file(s) should recover normal startup.
Manual configuration
Several tweaks (which cannot be enabled automatically or with nvidia-settings) can be performed by editing your configuration file. The Xorg server will need to be restarted before any changes are applied.
Minimal configuration
A basic configuration block in 20-nvidia.conf (or deprecated in xorg.conf ) would look like this:
Disabling the logo on startup
Add the «NoLogo» option under section Device :
Overriding monitor detection
The «ConnectedMonitor» option under section Device allows to override monitor detection when X server starts, which may save a significant amount of time at start up. The available options are: «CRT» for analog connections, «DFP» for digital monitors and «TV» for televisions.
The following statement forces the NVIDIA driver to bypass startup checks and recognize the monitor as DFP:
Enabling brightness control
This article or section is out of date.
Add to kernel paremeters:
Alternatively, add the following under section Device :
If brightness control still does not work with this option, try installing nvidia-bl-dkms AUR .
Enabling SLI
Taken from the NVIDIA driver’s README Appendix B: This option controls the configuration of SLI rendering in supported configurations. A «supported configuration» is a computer equipped with an SLI-Certified Motherboard and 2 or 3 SLI-Certified GeForce GPUs.
Find the first GPU’s PCI Bus ID using lspci :
Add the BusID (3 in the previous example) under section Device :
Add the desired SLI rendering mode value under section Screen :
The following table presents the available rendering modes.
Value | Behavior |
---|---|
0, no, off, false, Single | Use only a single GPU when rendering. |
1, yes, on, true, Auto | Enable SLI and allow the driver to automatically select the appropriate rendering mode. |
AFR | Enable SLI and use the alternate frame rendering mode. |
SFR | Enable SLI and use the split frame rendering mode. |
AA | Enable SLI and use SLI antialiasing. Use this in conjunction with full scene antialiasing to improve visual quality. |
Alternatively, you can use the nvidia-xconfig utility to insert these changes into xorg.conf with a single command:
To verify that SLI mode is enabled from a shell:
If this configuration does not work, you may need to use the PCI Bus ID provided by nvidia-settings ,
and comment out the PrimaryGPU option in your xorg.d configuration,
Using this configuration may also solve any graphical boot issues.
Multiple monitors
See Multihead for more general information.
Using nvidia-settings
The nvidia-settings tool can configure multiple monitors.
For CLI configuration, first get the CurrentMetaMode by running:
Save everything after the :: to the end of the attribute (in this case: DPY-1: 2880×1620 @2880×1620 +0+0
ConnectedMonitor
If the driver does not properly detect a second monitor, you can force it to do so with ConnectedMonitor.
The duplicated device with Screen is how you get X to use two monitors on one card without TwinView . Note that nvidia-settings will strip out any ConnectedMonitor options you have added.
TwinView
You want only one big screen instead of two. Set the TwinView argument to 1 . This option should be used if you desire compositing. TwinView only works on a per card basis, when all participating monitors are connected to the same card.
If you have multiple cards that are SLI capable, it is possible to run more than one monitor attached to separate cards (for example: two cards in SLI with one monitor attached to each). The «MetaModes» option in conjunction with SLI Mosaic mode enables this. Below is a configuration which works for the aforementioned example and runs GNOME flawlessly.
Vertical sync using TwinView
If you are using TwinView and vertical sync (the «Sync to VBlank» option in nvidia-settings), you will notice that only one screen is being properly synced, unless you have two identical monitors. Although nvidia-settings does offer an option to change which screen is being synced (the «Sync to this display device» option), this does not always work. A solution is to add the following environment variables at startup, for example append in /etc/profile :
You can change DFP-0 with your preferred screen ( DFP-0 is the DVI port and CRT-0 is the VGA port). You can find the identifier for your display from nvidia-settings in the «X Server XVideoSettings» section.
Gaming using TwinView
In case you want to play fullscreen games when using TwinView, you will notice that games recognize the two screens as being one big screen. While this is technically correct (the virtual X screen really is the size of your screens combined), you probably do not want to play on both screens at the same time.
To correct this behavior for SDL, try:
For OpenGL, add the appropriate Metamodes to your xorg.conf in section Device and restart X:
Another method that may either work alone or in conjunction with those mentioned above is starting games in a separate X server.
Mosaic mode
Mosaic mode is the only way to use more than 2 monitors across multiple graphics cards with compositing. Your window manager may or may not recognize the distinction between each monitor. Mosaic mode requires a valid SLI configuration. Even if using Base mode without SLI, the GPUs must still be SLI capable/compatible.
Base Mosaic
Base Mosaic mode works on any set of Geforce 8000 series or higher GPUs. It cannot be enabled from within the nvidia-setting GUI. You must either use the nvidia-xconfig command line program or edit xorg.conf by hand. Metamodes must be specified. The following is an example for four DFPs in a 2×2 configuration, each running at 1920×1024, with two DFPs connected to two cards:
SLI Mosaic
If you have an SLI configuration and each GPU is a Quadro FX 5800, Quadro Fermi or newer then you can use SLI Mosaic mode. It can be enabled from within the nvidia-settings GUI or from the command line with:
Wayland
For now only a few Wayland compositors support NVIDIA’s buffer API, see Wayland#Requirements for more information.
For further configuration options, take a look at the wiki pages or documentation of the respective compositor.
Regarding XWayland take a look at Wayland#XWayland.
Источник