Das Pimox Projekt von MinkeBox (Tim Wilkinson) war die erste Portierung von Proxmox VE 6 auf den Raspberry Pi 4.
Das aktuelle Pimox7 Projekt ist die Portierung von Proxmox VE 7 auf den Raspberry Pi 4. :-)
Proxmox ist relativ schnell installiert, allerdings musste bei mir noch ein wenig nachgearbeitet werden.
04.09.2022 - Anleitung aktualisiert (automatische Installation von Pimox7) 14.08.2022 - Anleitung aktualisiert (eeprom-update, Tipp von Jonas) 28.04.2022 - Anleitung aktualisiert (Probleme mit aktuellen Bullseye CT Images) 27.03.2022 - Anleitung aktualisiert (CPU Info patchen) 20.03.2022 - Anleitung aktualisiert (Pimox7 installer script) 14.11.2021 - Anleitung aktualisiert (Link zu den Container Images aktualisiert) 08.11.2021 - Raspberry Pi OS Bullseye verfĂŒgbar 10.09.2021 - Anleitung aktualisiert (Pimox7 installieren) 22.08.2021 - Pimox7 released! https://github.com/pimox/pimox7 27.07.2021 - Anleitung aktualisiert (SWAP erhöhen) 27.07.2021 - Anleitung aktualisiert (Container Arbeitsspeicher Anzeige und Hot-Swap) 18.06.2021 - Anleitung aktualisiert (Container Templates erstellen) 15.06.2021 - Anleitung aktualisiert (Debian 10 Buster VM installieren)
benötigt werden (mein Setup):
- Raspberry Pi 4 mit 8GB RAM
- Raspberry Pi OS 64-Bit (kein 32-Bit)
- aktueller bootloader (firmware/eeprom)
- USB auf SATA Adapter (Amazon)
- SSD (microSD-Karte oder USB-Stick geht auch, aber nicht empfehlenswert)
bootloader updaten und USB Boot aktivieren
Mit dem Raspberry Pi Imager ein aktuelles rpi-boot-eeprom-recovery-usb Image auf eine SD-Karte schreiben und den Pi damit updaten.
Die microSD-Karte in den Raspberry Pi, einschalten und mindestens 10 Sekunden warten!
Wenn der Vorgang erfolgreich war, blinkt die grĂŒne LED schnell (unendlich), ansonsten wird ein Fehlermuster dargestellt.
Mit einem HDMI Monitor am Pi wird der Bildschirm bei Erfolg grĂŒn und bei einem Fehler rot.
Tipp von Jonas
Ein kleiner Trick, um sich das eeprom-update zu erleichtern:
1. Raspberry Pi OS (64bit) wie gewohnt installieren 2. Stand der Firmware mit sudo rpi-eeprom-update ĂŒberprĂŒfen 3. ggf. mit sudo rpi-update die Firmware aktualisieren.
Raspberry Pi OS 64-Bit installieren
Ein aktuelles 2022-xx-yy_raspios-bullseye-arm64-lite.img.xz herunterladen und mit dem Raspberry Pi Imager auf die SSD schreiben.
Kleiner Tipp: DrĂŒckt man STRG + SHIFT + X im Pi Imager, kann man direkt zusĂ€tzliche Einstellungen mit in das zu schreibende Image ĂŒbernehmen.
Ist in der aktuellen Version des Raspberry Pi Imagers nicht mehr nötig.
Die SSD am Pi bootet jetzt von USB.
automatische Installation von Pimox7
Das Installationsskript nimmt einem die manuelle Konfiguration ab. (getestet am 04.09.2022)
Aktuelles 2022-xx-yy_raspios-bullseye-arm64-lite.img.xz herunterladen und mit dem Raspberry Pi Imager auf die SSD schreiben. Dann auf der Konsole:
pi@pimox:~# sudo -s root@pimox:~# curl https://raw.githubusercontent.com/pimox/pimox7/master/RPiOS64-IA-Install.sh > RPiOS64-IA-Install.sh root@pimox:~# chmod +x RPiOS64-IA-Install.sh root@pimox:~#Â ./RPiOS64-IA-Install.sh
Installation lÀuft durch, meldet am Ende aber noch zwei Fehler (pve-manager und proxmox-ve) die nach einem reboot behoben werden.
Nach dem reboot noch ein sudo apt upgrade -y durchfĂŒhren und die dpkg Fehler sind weg.
Fertig, Proxmox 7 lÀuft! :) VMs und CTs können jetzt erstellt werden.
manuelle Installation von Pimox7
System updaten, feste IP setzen, keine IPv6 Adressen und den hostnamen und IP in der /etc/hosts eintragen und den Pi neu starten.
Ohne den Eintrag in der hosts Datei schlÀgt die Installation fehl!
root@pimox:~# apt update root@pimox:~# apt upgrade -y root@pimox:~# vi /etc/hostname pimox root@pimox:~# vi /etc/hosts #127.0.1.1 pimox <-- entfernen! 192.168.50.64 pimox.bachmann.lan pimox root@pimox:~# vi /etc/dhcpcd.conf interface eth0 static ip_address=192.168.50.64/24 static routers=192.168.50.1 static domain_name_servers=192.168.50.1 root@pimox:~# reboot
Pimox7 installieren
Die externen Quellen hinzufĂŒgen und installieren. (dauerte ca. 20 Minuten)
Sollte nicht ĂŒber das Netzwerk, sondern direkt an der Konsole durchgefĂŒhrt werden. (Hab ĂŒber ssh installiert und lief problemlos durch.)
pi@pimox:~# sudo -s root@pimox:~# curl https://raw.githubusercontent.com/pimox/pimox7/master/KEY.gpg | apt-key add - root@pimox:~# echo "deb https://raw.githubusercontent.com/pimox/pimox7/master/ dev/" > /etc/apt/sources.list.d/pimox.list root@pimox:~# apt update root@pimox:~# apt install -y proxmox-ve
Zum Schluss noch ein root Passwort festlegen (wird fĂŒr den Proxmox login im WebUI benötigt) und den Pi neu starten.
root@pimox:~# passwd root@pimox:~# reboot
Proxmox 7 lÀuft! :-)
vmbr0 Bridge erstellen
Nach der Installation war keine Linux Bridge vorhanden. Ohne das Paket ifupdown2 wurde bei mir kein Bridge Interface auf dem Pi erstellt.
root@pimox:~$ apt install ifupdown2
Neue Linux Bridge erstellen und das System danach nochmal neu starten.
VM erstellen
Debian 11 Bullseye – debian-11.x.y-arm64-netinst.iso
Mit den Standardwerten startet die VM nicht. Angepasst werden musste:
- CD/DVD Drive: scsi
- CPU: host
- BIOS: ovmf
- EFI Disk: hinzufĂŒgen
- BOOT ORDER: 1st cd, 2nd hdd
Erst mit den obigen Einstellungen startete die VM und konnte installiert werden.
Debian 10 Buster – debian-10.10.0-arm64-netinst.iso
Mit den Standardwerten startet die VM nicht. Anpassungen wie fĂŒr Bullseye und noch zusĂ€tzlich:
- SERIAL PORT: hinzufĂŒgen
- DISPLAY: serial terminal
Die Lösung war hier das serielle Terminal fĂŒr die Installation zu nutzen. Alle anderen Einstellungen fĂŒhrten zu einem: Guest disabled display.
Das Display kann nach der Installation wieder zurĂŒck auf Default gestellt werden.
CT erstellen
Bisher hab ich noch keine arm64 LXC Templates gefunden. Sie können aus dem rootfs bestehender Linux Container aber einfach selbst erstellt werden.
Das rootfs.tar.xz der gewĂŒnschten Distribution (arm64) einfach ins Verzeichnis der Container Templates herunterladen, umbenennen und fertig. (Danke an Lucas)
# Debian 11 (bullseye) root@pimox:~# cd /var/lib/vz/template/cache root@pimox:~# curl https://uk.lxd.images.canonical.com/images/debian/bullseye/arm64/default/20220116_07:01/rootfs.tar.xz -o debian-11.2-standard_arm64_2022.01.16.tar.xz # Debian 10 (buster) root@pimox:~# cd /var/lib/vz/template/cache root@pimox:~# curl https://uk.lxd.images.canonical.com/images/debian/buster/arm64/default/20220116_06:11/rootfs.tar.xz -o debian-10.10-standard_arm64_2022.01.16.tar.xz
FĂŒr andere Distributionen bleibt die Vorgehensweise gleich.
28.04.2022 – Mit den aktuellen Bullseye default Images gibt es Probleme, die cloud Images funktionieren problemlos. (siehe Beitrag von rappelkiste)
Fehlermeldung:
unable to open file '/etc/network/interfaces.tmp.22646' - No such file or directory TASK ERROR: unable to create CT 100 - error in setup task PVE::LXC::Setup::post_create_hook
Zusammenfassung:
# DEFAULT IMAGE â https://uk.lxd.images.canonical.com/images/debian/bullseye/amd64/default/20220903_15:17/rootfs.tar.xz
IP DHCP -> CT kann nicht erstellt werden
IP STATIC, aber keine IP und Gateway eingetragen -> CT kann erstellt werden, startet und bekommt trotzdem per DHCP eine IP
# CLOUD IMAGE â https://uk.lxd.images.canonical.com/images/debian/bullseye/amd64/cloud/20220903_15:17/rootfs.tar.xz
IP DHCP -> CT kann erstellt werden, startet, Netzwerk funktioniert
IP STATIC -> CT kann erstellt werden, startet, Netzwerk funktioniert
Container Arbeitsspeicher Anzeige und Hot-Swap (Tipp von shorty)
Die Speichernutzung wird bei LXC Container nicht angezeigt
und kann im laufenden Betrieb auch nicht verÀndert werden. (memory: unable to hotplug memory: trying to change memory cgroup values: container not running)
Damit der RAM fĂŒr die Container korrekt angezeigt wird und auch im laufenden Betrieb verĂ€ndert werden kann, in der /boot/cmdline.txt am Ende der Zeile anfĂŒgen:
cgroup_enable=cpuset cgroup_enable=memory cgroup_memory=1
Nach der Ănderung einen reboot durchfĂŒhren!
SWAP erhöhen (Tipp von shorty)
Gerade beim 4GB Modell in Kombination mit einer SSD ist es sehr hilfreich mehr als 100MB SWAP zu besitzen.
root@pimox:~# swapoff -a root@pimox:~# nano /etc/dphys-swapfile CONF_SWAPSIZE=4096 CONF_MAXSWAP=4096 root@pimox:~# swapon -a root@pimox:~# service dphys-swapfile restart
CONF_MAXSWAP=4096 muss gesetzt werden, sonst wird immer bei 2GB ein Limit gezogen.
CPU Info patchen
Die CPU Erkennung auf dem Raspberry Pi 4 gibt nur ein “unknown” aus. Kleiner Schönheitsfehler. ;)
In der /usr/share/javascript/proxmox-widget-toolkit/proxmoxlib.js kann das CPU Model einfach fest verdratet werden.
render_cpu_model: function(cpu) { let socketText = cpu.sockets > 1 ? gettext('Sockets') : gettext('Socket'); //return `${cpu.cpus} x ${cpu.model} (${cpu.sockets.toString()} ${socketText})`; return `${cpu.cpus} x Cortex-A72 (ARM v8) 64-bit SoC @ 2.00GHz (${cpu.sockets.toString()} ${socketText})`; },
Browser neu laden (SHIFT + reload) und die CPU Anzeige sollte sich jetzt geÀndert haben.
Danke an Schreiners Techarchiv fĂŒr den Tipp.
Updates
Hier ist man auf den Entwickler angewiesen.
Lange im Internet gesucht, endlich was gefunden.
Vielen herzlichen Dank dafĂŒr, wird heute gleich mal angewendet.
Viele liebe GrĂŒĂe!
Dann mal los und viel Erfolg. :)
Coole Sache, immer schon nach gesucht. Leider klappt es bei mir noch nicht so ganz.
Habe aus der Anleitung leider auch nicht das 2021-03-04-raspios-buster-arm64-lite.img gefunden, sonder lediglich eine neuere Version.
Werde ich mir dann vielleicht doch morgen noch einmal anschauen.
Die Version sollte keine entscheidende Rolle spielen. Ich wĂŒrde immer die aktuellste nehmen.
Das 2021-mm-dd-raspios-buster-arm64-lite.zip kann direkt mit dem Pi Imager geflasht werden und muss vorher nicht extra entpackt werden.
OK, dann muĂ ich mal sehen, wo bei mir der Fehler liegt. Habe das ganze noch einmal gemacht. Jedenfalls startet PVE-Statd leider nicht.
Bei meinem ersten Versuch habe ich eigentlich alles so wie beschrieben gemacht, bis auf der festen IP. Die hatte ich per DHCP Reserviert weiter verteilen lassen. Beim Zweiten Versuch bin ich nach der Anleitung vorgegangen. Bin ĂŒbrigens von dem Imager begeistert. Hatte sonst immer den Etcher verwendet. Mit der Funktion im Imager direkt den Hostnamen zu vergeben etc. ist schon cool.
Ich freue mich schon aufs lauffĂ€hige Pimox, ansonsten bin ich noch auf der Suche nach dem Proxmox Backupserver auf dem Pi. Der wĂŒrde wie ich finde auch richtig Sinn ergeben.
Leider scheitern meine Versuche immer mit:
Setting up pve-manager (6.4-4rpve1) …
Job for pvestatd.service failed because the control process exited with error code.
See “systemctl status pvestatd.service” and “journalctl -xe” for details.
dpkg: error processing package pve-manager (–configure):
installed pve-manager package post-installation script subprocess returned error exit status 1
Errors were encountered while processing:
pve-manager
E: Sub-process /usr/bin/dpkg returned an error code (1)
Hab die Installation gerade nochmal mit einem aktuellen 64-Bit Raspberry Pi OS durchgefĂŒhrt, funktioniert einwandfrei!
Den Eintrag in der /etc/hosts hast du gemacht? ;)
Den Eintrag in der /etc/hosts habe ich gemacht. Habe gerade aber so eine Ahnung, was ich falsch gemacht haben könnte. Bei der IP Festlegung in der Static ip habe ich auch /24 angegeben, verwende jedoch ein /23. Das werde ich morgen nochmal testen. Ansonsten werde ich meine Configs dann mal posten. Danke dir auf jedenfall fĂŒrs testen.
Vielen Dank fĂŒr die ausfĂŒhrliche Anleitung! :)
Eine Frage hĂ€tte ich aber bezĂŒglich der Networkbridge. Hat jemand es geschafft, diese VLAN Aware einbinden zu können?
Leider hatte das Ganze bei mir nicht so wirklich gegriffen und fĂŒhrte immer dazu, dass ich die Verbindung verloren habe.
VLAN Aware drauĂen lassen, das hab ich bereits gemerkt.
Leider ist der Debian Template Server offline weshalb ich mir was anderes fĂŒr LXC einfallen lassen muss
https://us.images.linuxcontainers.org/images/ is online.
Seite war gestern zu der Zeit down, jetzt geht alles.
Nochmals vielen herzlichen Dank fĂŒr diese Anleitung.
Kein Problem, freut mich wenn’s jetzt lĂ€uft. :)
ich habe VLAN’s mit folgender konfiguration in der /etc/network/interfaces hinbekommen:
auto lo
iface lo inet loopback
iface eth0 inet manual
auto vmbr999
iface vmbr999 inet static
address 10.0.1.110/24
gateway 10.0.1.1
bridge-ports eth0.999
bridge-stp off
bridge-fd 0
bridge-vlan-aware yes
bridge-vids 2-4094
up brctl addif vmbr999 eth0.999
up ip link set eth0.999 up
auto vmbr10
iface vmbr10 inet manual
bridge-ports eth0.10
bridge-stp off
bridge-fd 0
bridge-vlan-aware yes
bridge-vids 2-4094
up brctl addif vmbr10 eth0.10
up ip link set eth0.10 up
ich muĂte allerdings auch ein:
systemctl disable dhcpcd.service
zusÀtzlich machen, weil der dhcpcd dienst einem immer dazwischen funkt.
Ach ja, nicht vergessen:
echo 8021q >> /etc/modules
muà auch gemacht werden, sonst wird dieses kernel-modul zu spÀt geladen.
Moin!
Könntest du das nochmal erleutern?
Ich scheitere leider daran 2 Netze per VLAN Tagging auf den Port zu binden.
Ich habe 2 Netze, eins mit ID 105 als natives Netz und ein Netz mit 1 ID als tagged Netz.
Viele GrĂŒĂe
Lucas
FĂŒr alle die das selbe Problem haben wie ich:
Ihr benötigt 2 VLAN’s die als Tagged Netze ausgefĂŒhrt sind.
Ich verwende UniFi und habe in der Switchport Konfig immer ein natives Netz und ein tagged Netzwerk ausgewÀhlt.
Das ist aber falsch! Es darf kein natives Netz gewÀhlt sein, sondern nur Tagged Netze.
Wichtig dabei ist auch, dass die Bearbeitung ĂŒber die Shell erfolgt, da ifupdown2 bei der Ănderung ĂŒber das WebUI eine Fehlermeldung ausgibt und euch aussperrt.
Dann funktioniert auch die Konfig von pi4mox.
auto lo
iface lo inet loopback
iface eth0 inet manual
auto vmbr999
iface vmbr999 inet static
address 10.0.1.110/24
gateway 10.0.1.1
bridge-ports eth0.VLANID1
bridge-stp off
bridge-fd 0
bridge-vlan-aware yes
bridge-vids 2-4094
up brctl addif vmbr999 eth0.VLANID1
up ip link set eth0.VLANID1 up
auto vmbr10
iface vmbr10 inet manual
bridge-ports eth0.VLANID2
bridge-stp off
bridge-fd 0
bridge-vlan-aware yes
bridge-vids 2-4094
up brctl addif vmbr10 eth0.VLANID2
up ip link set eth0.VLANID2 up
Viele GrĂŒĂe
Lucas
Bei mir funktioniert das alles nicht! Wurde eventuell vergessen, darauf hinzuweisen, dass der Kernel VLAN-fÀhig werden muss?
Siehe https://wiki.toenniges.net/wiki/Raspberry_Pi_Kernel_f%C3%BCr_Proxmox_optimieren
Super, vielen Dank fĂŒr diese Anleitung!
Leider bekomme ich beim starten der VM folgenden Fehler:
kvm: -device usb-ehci,id=ehci,bus=pci.0,addr=0x1: Duplicate ID ‘ehci’ for device
TASK ERROR: start failed: QEMU exited with code 1
Diesen Error bekomme ich auch bei anderen Tutorials, also nehme ich an das es etwas Grundlegendes ist. Wobei CT ohne Probleme laufen.
Vielleicht hat jemand eine Rat.
Vielen Dank im voraus!
Hast du der VM ein USB Device hinzugefĂŒgt?
Ja,
Maus und Tastatur habe ich ĂŒber die ID hinzugefĂŒgt.
Bin ratlos…
Wieso Maus und Tastatur?
Nimm alles raus und lösche das USB-Device.
Jetzt funktioniert das auch bei mir. Hatte in der hosts die Zeile bislang nur ergÀnzt, wenn ich die Zeile mit der 127.0.1.1 lösche klappt das auch.
Jetzt muà ich nur noch mal so eine Installation mit dem Proxmox Backup Server finden, das wÀre ein Traum.
Danke noch einmal fĂŒr deine unheimlich gute Doku.
Werde das in der Anleitung mal ergÀnzen. Ist wohl eine Stolperfalle.
Hi,
leider findet er bei mir das Paket nicht. Image – raspios_lite_arm64-2021-05-28, Raspberry Pi 4 8GB
pi@pimox:~ $ sudo -s
root@pimox:/home/pi# curl https://gitlab.com/minkebox/pimox/-/raw/master/dev/KEY.gpg | apt-key add –
% Total % Received % Xferd Average Speed Time Time Time Current
Dload Upload Total Spent Left Speed
100 3143 0 3143 0 0 7447 0 –:–:– –:–:– –:–:– 7430
OK
root@pimox:/home/pi# curl https://gitlab.com/minkebox/pimox/-/raw/master/dev/pimox.list > /etc/apt/sources.list.d/pimox.list
% Total % Received % Xferd Average Speed Time Time Time Current
Dload Upload Total Spent Left Speed
100 56 100 56 0 0 189 0 –:–:– –:–:– –:–:– 188
root@pimox:/home/pi# apt update
Hit:2 http://raspbian.raspberrypi.org/raspbian buster InRelease
Hit:3 http://archive.raspberrypi.org/debian buster InRelease
Get:1 https://gitlab.com/minkebox/pimox/-/raw/master dev/ InRelease
Get:4 https://gitlab.com/minkebox/pimox/-/raw/master dev/ Packages [347 kB]
Fetched 349 kB in 2s (161 kB/s)
Reading package lists… Done
Building dependency tree
Reading state information… Done
All packages are up to date.
root@pimox:/home/pi# apt install pve-manager
Reading package lists… Done
Building dependency tree
Reading state information… Done
Package pve-manager is not available, but is referred to by another package.
This may mean that the package is missing, has been obsoleted, or
is only available from another source
However the following packages replace it:
libpve-guest-common-perl
E: Package ‘pve-manager’ has no installation candidate
root@pimox:/home/pi# history
1 apt update
2 apt upgrade -y
3 nano /etc/hostname
4 nano /etc/hosts
5 nano /etc/dhcpcd.conf
6 nano /etc/hosts
7 reboot
8 curl https://gitlab.com/minkebox/pimox/-/raw/master/dev/KEY.gpg | apt-key add –
9 curl https://gitlab.com/minkebox/pimox/-/raw/master/dev/pimox.list > /etc/apt/sources.list.d/pimox.list
10 apt update
11 apt install pve-manager
Sieht soweit alles gut aus.
Du hast ein frisches _64-Bit_ Raspberry Pi OS installiert!?
Oder ein bestehendes 32-Bit auf 64-Bit umgestellt?
Das hatte ich nÀmlich mal probiert und ging dann auch mit diesem Fehler in die Hose.
$ uname -a
Linux pimox 5.10.17-v8+ #1421 SMP PREEMPT Thu May 27 14:01:37 BST 2021 aarch64 GNU/Linux
$ file /bin/bash
/bin/bash: ELF 64-bit LSB pie executable, ARM aarch64, version 1 (SYSV), dynamically linked, interpreter /lib/ld-linux-aarch64.so.1
Oh danke fĂŒr den Tipp da scheint der Fehler zu sein:
root@pimox:/home/pi# uname -a
Linux pimox 5.10.17-v7l+ #1421 SMP Thu May 27 14:00:13 BST 2021 armv7l GNU/Linux
root@pimox:/home/pi# file /bin/bash
/bin/bash: ELF 32-bit LSB executable, ARM, EABI5 version 1 (SYSV), dynamically linked, interpreter /lib/ld-linux-armhf.so.3
Ja, das ist der Fehler.
root@pimox:~# vi /etc/hostname
pimox
Dann kann ich nichts mehr machen.
Wenn ich mich neu verbunden habe und “root@pimox:~# vi /etc/hosts” eingebe, dann kommt folgendes und ich die Tasten auf der Tastatur bringen andere Buchstaben oder es passiert gar nichts. Kann mir bitte jemand helfen?
Nimm statt dem Editor vi, den nano. ;)
z.B. nano /etc/hosts
Hat funktioniert. Vielen Dank =)
Mahlzeit!!!
Vorab sei gesagt, auch danach habe ich schon lange geschaut und bin begeistert fĂŒndig geworden zu sein. Pimox funktioniert, nun möchte eine vorhandene Festplatte an einen LXC Container durchreichen. Als Vorlage habe ich hier die Anleitung https://www.bachmann-lan.de/proxmox-physikalische-festplatte-in-vm-durchreichen/ verwendet, bekomme dann eine Fehlermeldung “Configuration file ‘nodes/pimox/qemu-server/101.conf’ does not exist”
Verwendeter Befehl “qm set 101 -scsi1 /dev/disk/by-id/ata-Hitachi_HTS723225L9A362xxxxxx” -> 101 ist der LXC Container von daher sollte das passend sein!
Wo liegt die Herausforderung?
mfg ELMO
Hallo ELMO.
Im Artikel steht VM, du versuchst das aber bei einem LXC Container. Das geht so leider nicht.
In einen Container kann man auch nur eine Festplatte einbinden (mounten), nicht direkt durchreichen.
GruĂ, Michael…
Super Anleitung funktioniert bestens,
funktioniert das durchreichen von Festplatten genauso wie hier auf der Webseite bereits beschrieben worden ist??
beste GrĂŒĂe
Ich denke das sollte es. Beschrieben ist es aber fĂŒr eine VM, nicht fĂŒr einen LXC Container.
Supergeil! Ich hab schon lÀnger nach einer Möglichkeit gesucht um Proxmox auf dem RasperryPi zum laufen zu bekommen.
Leider funktionieren bei mir die Graphen fĂŒr RAM nicht (auĂer beim Proxmox Host selbst) und in der Ăbersicht der Hosts wird nur der VerfĂŒgbare RAM,
nicht aber der benutzte RAM angezeigt. Gibts da eine Lösung?
AuĂerdem: Eine Idee wie ich Watchdog auf dem Pi mit Proxmox konfiguriere?
Hat schon jemand probiert mit so einem Proxmox auf dem Pi einem X64 Cluster zu joinen?
Hallo,
leider kann man anscheinend nur die bullseye Version als VM installieren, kein Debian 10.
Ob Debian 10.9 oder Ubuntu, ich komme immer nur bis zum ersten Fenster, wo man u.a. “Install” auswĂ€hlen kann” und wenn ich dann Install wĂ€hle,
dann wird wirds schwarz mit der Info “guest disabled Display” und das wars dann.
Ich habe schon alle Hardware-Anzeige Optionen probiert, aber leider klappt nix davon.
Ich hab eine Lösung gefunden.
Installation ĂŒber das serielle Terminal durchfĂŒhren, dann geht es. (habs oben beschrieben)
Hallo zusammen,
geniale Sache. Habe auch alles, Dank der guten Anleitung, zum Laufen gebracht.
Leider funktionieren die selbst gebauten LXC Container nicht bei mir. Wenn ich das mit Debian Bullseye oder Buster mache bekomme ich folgende Anzeige in der Konsole CT:
Connected to tty 1
Type to exit the console, to enter Ctrl+4 itself
hier geht es dann nicht weiter. Habe heute mal einen Container-Template mit Ubuntu gebaut. Das funktioniert.
Kann mir einer einen Tip geben warum das mit den anderen beiden bei mir nicht funktioniert?
Beste GrĂŒĂe
Averall
Hab das gerade nochmal mit Buster ausprobiert, funktioniert ohne Probleme. (CT mit Standardeinstellungen)
Erstellst du die Container wie ich es beschrieben habe, oder nutzt du eine andere Variante?
Hallo,
ich benutze genau die von dir beschriebene Variante, halt nur mit aktuellem Paket.
Habe aber gerade per Zufall rausgefunden das der Login Promt doch noch kommt. Allerdings nach 5:10 min.
Habe es extra noch mal gestoppt. Dann klappt auch alles.
Wie gesagt, mit dem erstellten Ubuntu Template funktioniert das sofort.
Meine Hardware:
Raspi 4 8GB RAM
Kingston M.2 SSD 240 GB in einem ArgonOne V2 GehÀuse.
Beste GrĂŒĂe
Averall
Hallo,
Selber Pi, selbes Problem und auch bei mir dauert es ca. 5 min bis der Login erscheint. Auch wenn man einen openSSH-Server installiert, ist ein Login per SSH in dieser Zeit nicht möglich. Danach geht es. Sehr merkwĂŒrdig.
Hallo,
habe so fern alles hinbekommen, sofert ich eine Vm Starten will erhalte ich die meldung:
“kvm: -device ide-cd,bus=ide.1,unit=0,drive=drive-ide2,id=ide2,bootindex=101: Bus ‘ide.1’ not found
TASK ERROR: start failed: QEMU exited with code 1”
Es lĂ€uft ĂŒber eine Toshiba 1TB Usb 3.0 Festplatte
die Settiings sind
Bios OVMF (UEFI)
CD/DVD ide2 Debian bullseye-DI-rc1-arm64-netinst.iso
CPU Host
Vielen dank schon mal
CD device muss SCSI sein, nicht IDE!
wo stelle ich das ein?
Beim anlegen des neuen CD/DVD Drives -> Bus/Device: SCSI
Moin!
Um das Container Template zu bekommen muss der Aufwand gar nicht so groĂ sein.
Dazu einfach in das Templateverzeichnis springen und per curl den Bums runterladen.
cd /var/lib/vz/template/cache/
curl https://us.images.linuxcontainers.org/images/debian/buster/arm64/default/20210617_05:24/rootfs.tar.xz -o debian-10.9-standard_arm64_2021.06.17.tar.xz
Das wars auch wieder von mir!
Ich dachte immer ein Template mĂŒsste zwingend im *.tar.gz Format sein. Stimmt aber nicht (mehr).
Super Tipp, vielen Dank, hab’s im Artikel aktualisiert! :)
Es scheint wohl keine Updates zu geben von Pimox?
Es sind ja schon einige pve-manager Updates gekommen (aktuell 6.4-9)
Ja, da sind wir leider auf den Entwickler angewiesen. ;)
Hallo
Herzlichen Dank fĂŒr diese super Anleitung. Eine kleine Frage. Ich habe die source.list editiert wie im pve-admin-guide.pdf unter Punkt 3.1.2 beschrieben.
Ich kriege eine Fehlermeldung (siehe unten). Wird das update auf dem Pi anders verarbeitet als bei einer normalen Installation? Bei einer normalen installation funktioniert es.
starting apt-get update
Hit:2 http://deb.debian.org/debian buster InRelease
Hit:3 http://deb.debian.org/debian-security buster/updates InRelease
Hit:4 http://archive.raspberrypi.org/debian buster InRelease
Hit:5 http://deb.debian.org/debian buster-updates InRelease
Get:6 http://download.proxmox.com/debian/pve buster InRelease [3051 B]
Get:1 https://gitlab.com/minkebox/pimox/-/raw/master dev/ InRelease
Err:6 http://download.proxmox.com/debian/pve buster InRelease
The following signatures couldn’t be verified because the public key is not available: NO_PUBKEY 7BF2812E8A6E88E0
Reading package lists…
W: GPG error: http://download.proxmox.com/debian/pve buster InRelease: The following signatures couldn’t be verified because the public key is not available: NO_PUBKEY 7BF2812E8A6E88E0
E: The repository ‘http://download.proxmox.com/debian/pve buster InRelease’ is not signed.
TASK ERROR: command ‘apt-get update’ failed: exit code 100
Da dies keine “normale” Installation ist, darfst du nicht die Proxmox Repositories hinzufĂŒgen.
Updates kommen nur von Debian und dem Pimox Entwickler.
Ich frage mich, ob es irgendwie möglich ist von einem PI ein Image als RAW Datei zu ziehen und die RAW Datei dann als VM in PIMOX einzubinden.
Hat das schon mal jemand versucht? In meinem ersten Versuch bin ich leider gescheitert, oder habe ich einen Denkfehler, das dies gar nicht gehen kann?
Ansonsten wĂŒrde mich noch interessieren, ob man die GPIO’s an eine VM durchreichen kann um eine aufgesteckt Platine einer bestimmten VM verfĂŒgbar zu machen.
Ich denke das wird beides nicht funktionieren.
Lasse mich aber gerne eines Besseren belehren… ;)
Es lÀsst sich aber ein Raspberry Pi OS auf dem Pimox installieren.
Die Anleitung ist fĂŒr einen ESXi-Pi, musst dann die ersten Steps entsprechend fĂŒr Proxmox anpassen.
https://williamlam.com/2020/10/how-to-run-raspberry-pi-os-as-a-vm-on-esxi-arm.html
Super! Danke!
Danke fĂŒr die Anleitung, lieĂ sich gut umsetzen.
Damit der RAM fĂŒr die Container korrekt angezeigt werden kann und hot-swapable ist, musste ich die /boot/cmdline.txt anpassen und hinten
cgroup_enable=cpuset cgroup_enable=memory cgroup_memory=1 anhÀngen.
Damit kann nun wie beim “groĂen” Proxmox beim laufenden LXC der Ram modifiziert werden.
AnschlieĂend reboot durchfĂŒhren!
Der VollstÀndigkeit halber:
Fehlermeldung vorher: pimox memory: unable to hotplug memory: trying to change memory cgroup values: container not running
Das ist ja der Kracher!
Hab’s ausprobiert, Problem und Lösung genau wie du es beschrieben hast, einwandfrei.
Werde die Anleitung noch aktualisieren.
VIELEN DANK fĂŒr den super Tipp! :-]
Gerne. Wenn du die Anleitung anpasst, kannst du vielleicht auch die Erhöhung des SWAPs mit aufnehmen. Gerade beim 4GB Modell in Kombination mit einer SSD ist es sehr hilfreich mehr als 100MB zu besitzen.
Als root:
swapoff -a
nano /etc/dphys-swapfile -> CONF_SWAPSIZE=4096 CONF_MAXSWAP=4096
swapon -a
service dphys-swapfile restart
CONF_MAXSWAP=4096 muss gesetzt werden, sonst wird immer bei 2GB ein Limit gezogen.
Auch dafĂŒr VIELEN DANK!
Vielen Dank fĂŒr den Tip. Funktioniert einwandfrei.
Ich hoffe wir bekommen ein Bullseye Pimox7 jetzt wo Proxmox auch auf 7 geupdatet hat.
Proxmox Installation funktioniert bei mir soweit….
Allerdings lÀsst sich bei
Debian 11 – die VM Dann nicht starten. (komme immer wieder nur ein eine EFI Shell oder sowas…)
Debian 10 – startet die VM Installation gar nicht.
Kommt nur eine :
Synchronous Exception at 0x000000007BF95288
Nach der Installation CD entfernen und 1st boot device kontrollieren.
Hast du die Installationen nach meiner Anleitung durchgefĂŒhrt?
Vielen Dank.
Kann jemand was zur Performance und VerlÀsslichkeit sagen?
Was habt ihr darauf laufen?
Ich nehm den nur zum spielen, mehr nicht.
Das Hauptproblem sind die ungewissen Updates von pimox.
Hallo, die Installation hat ohne Probleme geklappt incl. ifupdown2. Sobald ich jedoch in Proxmox der vmbr0 Bridge die IPv4/CIDR und das Gateway eintrage und erstelle werden die Daten in der /etc/network/interfaces eingetragen, danach ist der Raspi jedoch nicht mehr erreichbar. Die IPv4/6 Adressen sind korrekt in /etc/dhcpcd.conf eingetragen, woran kann das liegen?
GruĂ Frank
Du hast dann auch kein vmbr0 interface, oder?
mtu 1500 qdisc mq master vmbr0 state UP group default qlen 1000 mtu 1500 qdisc noqueue state UP group default qlen 1000
root@pimox:~# ip a
2: eth0:
link/ether dc:a6:32:d5:e8:1e brd ff:ff:ff:ff:ff:ff
3: vmbr0:
link/ether 11:22:33:44:55:66 brd ff:ff:ff:ff:ff:ff
inet 192.168.50.64/24 scope global vmbr0
Proxmox Netzwerk Konfiguration löschen, reboot, Netzwerk ĂŒber das Webinterface neu konfigurieren, reboot.
Hallo, doch das vmbr0 interface ist vorhanden wenn ich direkt an dem Raspi bin. Vielleicht habe ich auch einen Denkfehler, wenn ich beim einrichten von vmbr0 in Proxmox die Netzwerkadressen des Raspi eintrage sind die CT auch von aussen erreichbar, allerdings wird das gerÀt im Router nur noch mit 192-168-x-x angezeigt und nicht mehr mit seinem Hostname.
Du kommst auf das Webinterface, kannst Container erstellen die dann auch erreichbar sind? Dann passt es doch eigentlich.
Da ich deine Konfiguration nicht kenne, ist das schwierig.
Hallo, coole Sache. Hab alles prima zum laufen gebracht. Herzlichen Dank fĂŒr die tolle Anleitung.
Woran ich momentan scheitere ist das USB Passthrough. Weder in einem LXC noch in einer VM bekomme ich das zum laufen. Hat das schon jemand probiert und es geschafft das es funktioniert?
Hallo,
hast du inzwischen eine Lösung gefunden? Bei mir funktioniert es auch nicht. Ich habe pimox 7 nach der offiziellen Anleitung installiert und eine VM mit debian 11.2 arm64. Es geht alles nur Passthrough mag nicht. Wenn ich den Chipsatz auf Q35 umstelle bekomme ich den gleichen Fehler wie Daniel mit duplicate ID etc…
Danke fĂŒr die Anleitung. Erfolgreich installiert.
hello.
have tried the whole procedure several times but gets stuck defining the bridge. the system gets unresponsive during “apply configuration”. seems like the way promox handles it has changed recently. what is the current way to define a linux-bridge?
regards,
claus
Have you installed the ifupdown2 package?
Delete the Proxmox Network Configuration and try it again.
Refer to the Proxmox Network Configuration https://pve.proxmox.com/wiki/Network_Configuration
Tim hat vor einigen Tagen auch Pakete auf Basis von Proxmox7 bereitgestellt: https://github.com/pimox/pimox7
Ich habe meine laufende Pimox6 Version (als Node in meinem x64 Cluster eingebunden) erfolgreich auf 7 geupdatet.
Einfach die ganzen source Files umschreiben: buster -> bullseye, pimox6 -> pimox7, upgrade, dist-upgrade, reboot, lÀuft.
Einfach toll :)
Genial!! Danke fĂŒr die Info :)
Ich habe das nun schon mehrfach versucht, trotzdem klappt das update nicht. Ich habe bei meinen Versuchen zunĂ€chst das aktuelle Pimox versucht upzudaten. Danach habe ich die Debian source.list, sowie die von pimox angepasst. anschlieĂend apt update && apt upgrade && apt dist-upgrade, danach noch einen reboot abgesetzt. Ich hatte einmal kurz die Version 7 im Webgui Kopf nun aber wieder 6.4.
Hast du eine Idee, was ich anders gemacht haben könnte?
Alle sources gleichzeitig Àndern, Debian und Pimox. apt update und danach direkt dist-upgrade. Mit dem Zwischenschritt apt-upgrade erzeugts du nur ein Paket Wirrwar welches nicht mehr auflössbar ist.
Habe das nun mal so gemacht. AnschlieĂend hatte ich das ganze auf Proxmox7, bis ich den Pi rebootet habe. Nun sind die sources.list etc. wieder die alten wie unter Proxmox 6.4
Moin, moin, wie kann ich Pimox deinstallieren ohne das System neu aufzusetzen.
GruĂ Frank
Die pimox.list entfernen und den pve-manager deinstallieren.
Ich wĂŒrde aber neu aufsetzen. ;)
Wenn ich die IP Adresse des Proxmox Servers im Browser eingebe erhalte ich nur die Fehlermeldung das der Server die Verbindung abgelehnt hÀtte, liegts am Browser?
Eher nicht.
Was wurde denn installiert, Proxmox 6 oder 7?
Ist die Installation komplett und ohne Fehler durchgelaufen?
Zugrriff per SSH möglich? Was gibt denn der Befehl pveversion zurĂŒck?
Hi,
habe mich heute daran versucht Proxmox 7 nach deiner Anleitung zu installieren.
Habe dazu folgendes image genutzt “2021-05-07-raspios-buster-arm64-lite.zip”.
Dann nach Anleitung;
Bis dahin hat auch alles reibungslos funktioniert.
# system aktualisieren
apt update
apt -y upgrade
apt -y dist-upgrade
apt -y autoremove
apt clean
reboot
Jedoch startet mein Raspberry nun nicht mehr und die grĂŒne Kontrolllampe blinkt im gleichen Muster. An was kann das liegen, was ist schief gelaufen?
Raspberry 4, 8gb.
Danke und GruĂ
Schwer zu sagen.
Hast du noch eine Bildschirmausgabe?
Installierst du auf SD-Karte oder SSD?
Vielleicht ist das Upgrade auf Buster fehlgeschlagen.
Ggf. alles nochmal von vorne.
Hallo,
ich habe einen Sandisk usb Stick als DatentrÀger im Gebrauch.
Nein, eine Bildschirmausgabe habe ich nicht mehr.
Wie meinst du das âUpdate auf Buster fehlgeschlagenâ? Wie kann ich das bei der Installation erkennen?
Denke das es mit dem Update auf Bullseye zu tuen haben muss⊠wobei mir hier auch keine errormeldung aufgefallen ist. Gibt es bei diesem Update auf Bullseye etwas auf das man achten muss. Zwischendurch wird man gefragt welche Pakete weiterhin genutzt werden sollen. Hier evtl eine falsche Auswahl getroffen?
Danke und GruĂ
Meinte natĂŒrlich das Upgrade auf Bullseye, nicht Buster. ;)
Da der Pi wie du sagst nicht mehr bootet, wĂŒrd ich nochmal neu installieren!
Buster Lite, System updaten, rebooten und nochmal ein Upgrade auf Bullseye durchfĂŒhren.
Ab jetzt ist auch Raspberry Pi OS Bullseye verfĂŒgbar! :)
Hallo,
inzwischen habe ich es geschafft proxmox7 zu installieren.
Jedoch stehe ich jetzt vor dem nÀchsten Problem einen lauffÀhigen CT zu erstellen. Der link zu https://us.images.linuxcontainers.org/images/⊠ist seit Tagen nicht zu erreichen.
Habe im Netz unter folgendem link https://uk.lxd.images.canonical.com/images/debian/bullseye/arm64/default/ was gefunden. Den CT lĂ€sst sich auch erstellen und laut Anzeige lĂ€uft dieser auch, jedoch kann ich nichts ĂŒber die Konsole machen. Weder anmelden noch sieht es EingabefĂ€hig aus.
Kann mir jemand erklÀren warum das nicht funktioniert?
Geht das ĂŒberhaupt mit meinem alternativ link?
Hat jemand den Kontent vom âusâ link (Lukas) den er zur VerfĂŒgung stellen kann bzw. gibt es einen neueren link?
Danke fĂŒr Support
Ja, der link scheint offline zu sein, werde das aktualisieren.
Hab mal zum testen mit diesem link einen Container erstellt, lÀuft einwandfrei.
https://uk.lxd.images.canonical.com/images/debian/bullseye/arm64/default/20211114_06:06/rootfs.tar.xz
Diese Images sollten sich problemos nutzen lassen.
Warum das bei dir nicht funktioniert, kann ich dir nicht sagen.
Probier doch einfach mal einen anderen CT oder eine VM aufzusetzen.
Hallo,
danke fĂŒr deine rasche Antwort.
Den link den du bei deiner letzten Antwort angegeben hast, ist genau den ich auch genutzt habe.
…/images/debian/bullseye/arm64/default/20211114_06:06
Ich habe es gerade eben nochmals ausprobiert, jedoch wieder ohne Erfolg…
CT lÀuft Konsole schreibt folgendes raus:
Connected to tty 1
Type to exit the console, to enter Ctrl+4 itself
Was hat dies zu bedeuten?
Bzw was mache ich falsch?
Was passiert denn wenn du ENTER drĂŒckst?
CT -> Options -> Console mode, Default (tty) – kannst auch mal was anderes zum probieren einstellen
Gibt es eine Möglichkeit Rasperry OS 10 (Buster) auf Rasperry OS 11 (Bullseye) zu aktualisieren und dann auch von PiMox 6.4 auf PiMox 7?
Raspberry PI OS upgrade, ja.
Pimox upgrade, nein.
Hi, also ich hab das hinbekommen.
Das geht.
Folgendes:
Upgrade von 10 -> 11 (Pakete von PVE nicht deinstallieren)
Repo von PVE6 auf PVE7 wechseln
Apt Update && apt dist-upgrade -y
Upgraded PVE von 6.4.4 -> 7.0.13 (22.11.)
VMs und Einstellungen bleiben dadurch erhalten.
Danke fĂŒr die Info!
Vielleicht hast du eine Idee wie man den KSMTuned zum laufen bekommt?
Nov 23 08:04:17 rPI-Proxmox ksmtuned[811]: /usr/sbin/ksmtuned: line 64: /sys/kernel/mm/ksm/pages_to_scan: No such file or directory
Nov 23 08:04:17 rPI-Proxmox ksmtuned[811]: /usr/sbin/ksmtuned: line 65: /sys/kernel/mm/ksm/sleep_millisecs: No such file or directory
Nov 23 08:04:17 rPI-Proxmox ksmtuned[811]: /usr/sbin/ksmtuned: line 66: /sys/kernel/mm/ksm/run: No such file or directory
Leider nein.
Hat schon jemand Raspberry PI OS Lite auf Pimox zum laufen gebracht?
Lite noch nicht, aber die Desktop Version.
Die Anleitung ist fĂŒr vmware, mĂŒsste dann fĂŒr Pimox ein anpasset werden. ;)
https://williamlam.com/2020/10/how-to-run-raspberry-pi-os-as-a-vm-on-esxi-arm.html
Statt dem Desktop Image vielleicht einfach das Lite Image nehmen? MĂŒsste man mal ausprobieren.
Hi!
Hat es schon jemand geschafft, Sound im Pimox7 LXC Container zum laufen zu bringen?
Ich scheitere aktuell an aplay -l
Mehr Details hier:
https://github.com/mikebrady/shairport-sync/discussions/1250
Die Antwort auf die Frage von Coachi wĂ€re vermutlich auch schon ein wertvoller Zwischenschritt. Aber keine Ahnung wie ich einen Raspberry OS Container bauen kannâŠ
Auf Tipps freue ich mich sehr!
Danke
DaCHack
Das Problem RaspiOS in pimox zum laufen zu bringen ist wie ich erfahren habe ein Problem mit uefi das zum Start der VMs gebraucht wird. Debian z.B. kann ja in pimox als Container laufen, das ging bei mir auch. RaspiOS scheint auf Debian zu basieren, ich frage mich wo konkret das Problem ist bzw wo der Unterschied ist?
Naja, generell hab ich Hoffnung das da noch was kommt, das scheint ja mehr Leute zu interessieren :-)
Man könnte halt perfekt die laufenden Raspis virtualisieren. Eine Option wÀre auch alles auf Debian neu aufzusetzen da es ja Àhnlich ist aber ich mag ehrlich gesagt nicht das Rad neu erfinden. Die Probleme liegen dann iwo im Detail und man kÀmpft wochenlang das alles so wird wie man es eigentlich schon hat :-)
Im LXC dĂŒrfte UEFI doch keine Rolle spielen, oder?
RPi OS wĂŒrde halt die passenden Pakete fĂŒr die spezielle Hardware auf dem Pi mitbringen. Vor allem die Firmware auf der Boot-Partition könnte ggf das Problem mit Sound und Video lösen. Habe aber keine Ahnung was da genau fehlt und wie ich es in Den Debian Container reinbekomme.
Oder kann man einfach das gesamte RootFS aus dem RPi OS Image kopieren und das als Image fĂŒr LXC verwenden?
Ob das dann die Probleme mit Audio und Video löstâŠkeine Ahnung. Ggf liegt es auch an den Mounts oder den Berechtigungen.
Hallo zusammen!
erstmal Danke fĂŒr diese Anleitung. Ich warte schon lĂ€nger auf sowas. Schade, dass es nicht offiziell angeboten wird. Ich habe die komplette Einrichtung jetzt zum zweiten mal hinter mir. Meine LXC bekommen keine Verbindung nach auĂen. Der Container kann aber andere lokale iP Adressen im Netzwerk anpingen, nur nach auĂen geht da nix. Nach den Einstellungen, die ich bereits geprĂŒft habe, passt das alles.
/etc/network/interfaces
auto lo
iface lo inet loopback
iface eth0 inet manual
auto vmbr0
iface vmbr0 inet static
address 10.100.10.50/24
gateway 10.100.10.1
bridge-ports eth0
bridge-stp off
bridge-fd 0
im Host-System
root@pimox:/# ip a
1: lo: mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1000
link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
inet 127.0.0.1/8 scope host lo
valid_lft forever preferred_lft forever
inet6 ::1/128 scope host
valid_lft forever preferred_lft forever
2: eth0: mtu 1500 qdisc mq master vmbr0 state UP group default qlen 1000
link/ether dc:a6:32:ee:e2:a6 brd ff:ff:ff:ff:ff:ff
3: wlan0: mtu 1500 qdisc noop state DOWN group default qlen 1000
link/ether dc:a6:32:ee:e2:a7 brd ff:ff:ff:ff:ff:ff
4: vmbr0: mtu 1500 qdisc noqueue state UP group default qlen 1000
link/ether 26:5c:ec:16:19:da brd ff:ff:ff:ff:ff:ff
inet 10.100.10.50/24 scope global vmbr0
valid_lft forever preferred_lft forever
inet6 fe80::dea6:32ff:feee:e2a6/64 scope link
valid_lft forever preferred_lft forever
9: veth100i0@if2: mtu 1500 qdisc noqueue master fwbr100i0 state UP group default qlen 1000
link/ether fe:e8:51:27:24:c0 brd ff:ff:ff:ff:ff:ff link-netnsid 0
10: fwbr100i0: mtu 1500 qdisc noqueue state UP group default qlen 1000
link/ether ea:46:ae:db:d9:39 brd ff:ff:ff:ff:ff:ff
11: fwpr100p0@fwln100i0: mtu 1500 qdisc noqueue master vmbr0 state UP group default qlen 1000
link/ether 26:5c:ec:16:19:da brd ff:ff:ff:ff:ff:ff
12: fwln100i0@fwpr100p0: mtu 1500 qdisc noqueue master fwbr100i0 state UP group default qlen 1000
link/ether ea:46:ae:db:d9:39 brd ff:ff:ff:ff:ff:ff
im Container
root@pihole:~# ip a
1: lo: mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1000
link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
inet 127.0.0.1/8 scope host lo
valid_lft forever preferred_lft forever
inet6 ::1/128 scope host
valid_lft forever preferred_lft forever
2: eth0@if9: mtu 1500 qdisc noqueue state UP group default qlen 1000
link/ether 46:de:e0:1d:4d:f8 brd ff:ff:ff:ff:ff:ff link-netnsid 0
inet 10.100.10.205/24 brd 10.100.10.255 scope global eth0
valid_lft forever preferred_lft forever
inet6 fe80::44de:e0ff:fe1d:4df8/64 scope link
valid_lft forever preferred_lft forever
die IP ist auch korrekt und liegt auĂerhalb meines dhcp-Bereich.
Installiert habe ich alles auf Basis 2021-10-30-raspios-bullseye-arm64 und anschlieĂend dem Script.
Komisch ist jedoch, dass am Ende der Installation nach dem reboot und “apt upgrade -y” zwei Symlinks nicht gesetzt werden konnten.
Denke aber nicht, dass dies das Problem ist, oder?
pi@pimox:~ $ sudo -s
root@pimox:/home/pi# apt upgrade -y
Reading package lists… Done
Building dependency tree… Done
Reading state information… Done
Calculating upgrade… Done
0 upgraded, 0 newly installed, 0 to remove and 0 not upgraded.
2 not fully installed or removed.
After this operation, 0 B of additional disk space will be used.
Setting up pve-manager (7.1-7) …
Setting up proxmox-ve (7.1-1) …
ln: failed to create symbolic link ‘/boot/pve/vmlinuz’: Operation not permitted
ln: failed to create symbolic link ‘/boot/pve/initrd.img’: Operation not permitted
root@pimox:/home/pi#
root@pimox:/# uname -a
Linux pimox 5.10.63-v8+ #1488 SMP PREEMPT Thu Nov 18 16:16:16 GMT 2021 aarch64 GNU/Linux
root@pimox:/#
Ich weiĂ nicht mehr, was ich prĂŒfen soll und hoffe, dass noch jemand eine Idee hat.
Danke, GrĂŒĂe
Michael
– du nimmst fĂŒr den Host ein Raspberry Pi OS?
– /boot/pve/vmlinuz und /boot/pve/initrd.img gibt es auf dem Pi nicht.
– dein Pi hat eine statische IP? Wie sieht denn deine /etc/dhcpcd.conf aus?
root@pimox:~# ip a
1: lo:
link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
inet 127.0.0.1/8 scope host lo
valid_lft forever preferred_lft forever
inet6 ::1/128 scope host
valid_lft forever preferred_lft forever
2: eth0:
link/ether dc:a6:32:d5:e8:1e brd ff:ff:ff:ff:ff:ff
inet 192.168.50.64/24 brd 192.168.50.255 scope global noprefixroute eth0
valid_lft forever preferred_lft forever
3: vmbr0:
link/ether dc:a6:32:d5:e8:1e brd ff:ff:ff:ff:ff:ff
inet 192.168.50.64/24 scope global vmbr0
valid_lft forever preferred_lft forever
inet6 fe80::dea6:32ff:fed5:e81e/64 scope link
valid_lft forever preferred_lft forever
root@pimox:~# ip r
default via 192.168.50.1 dev vmbr0 proto kernel onlink
default via 192.168.50.1 dev eth0 src 192.168.50.64 metric 202
192.168.50.0/24 dev vmbr0 proto kernel scope link src 192.168.50.64
192.168.50.0/24 dev eth0 proto dhcp scope link src 192.168.50.64 metric 202
Hallo und Danke fĂŒr deine Antwort.
Ja, ich nutze die 2021-10-30-raspios-bullseye-arm64 und habe eine Statische IP gesetzt.
Bei mir existiert die Datei dhcpcd.conf nicht. Ich habe das Setup Script gesteuert durchlaufen lassen.
Wunderbare Anleitung. Ein groĂes Kompliment! Vielen Dank!
Ich hatte nach der Grundinstallation von PiMox dennoch Probleme mit dem Erstellen von Containern.
Nach dem ich das Root-Tar-Fs wie Punkt “CT erstellen” heruntergeladen hatte, konnte ich Container ausrollen. Leider lieĂen sich diese nicht starten. Die Fehlermeldung lautete:
run_apparmor_parser: 919 Failed to run apparmor_parser on “/var/lib/lxc/101/apparmor/lxc-101_”: apparmor_parser: Unable to replace “lxc-101_”. Profile doesn’t conform to protocol
apparmor_prepare: 1089 Failed to load generated AppArmor profile
lxc_init: 850 Failed to initialize LSM
__lxc_start: 2007 Failed to initialize container “101”
TASK ERROR: startup for container ‘101’ failed
Ich konnte diesen Fehler beheben indem ich in der Konfiguration des betreffenden Containers (Pfad: /etc/pve/lxc/[Containernummer].conf) die folgende Zeile angefĂŒgt hatte:
lxc.apparmor.profile: lxc-default-with-nesting
Also ich weiĂ nicht, ob auch irgend was mit dem Installationsscript nicht stimmt, aber meine dhcpcd.conf war leer.
Ich habe dann alles nochmal manuell neu installiert und da gab es dann die Standard Datei, die ich dann entsprechend angepasst habe.
Soweit so gut habe ich aber einen DHCP Konflikt mit dem Adressbereich vom VPN bei der Fritzbox gehabt. Diese vergibt diese wohl ab .200 bis .254. War mir so nicht bekannt, da ich VPN ĂŒber Wireguard realisiere. Nachdem ich diese dann wieder geĂ€ndert habe, lĂ€uft es jetzt soweit.
Aber warum gibt es diese anderen Netzwerkadressen?
veth100i0@if2
fwbr100i0
fwpr100p0@fwln100i0
fwln100i0@fwpr100p0 <—- Hat eine IP aus dem DHCP-Bereich bekommen.
Wie kann man das unterbinden?
Startest du einen Gast (VM/CT) werden die GerÀte automatisch erstellt. Da hast du keinen Einfluss drauf.
https://forum.proxmox.com/threads/unknown-devices-ifconfig.42407/
Danke fĂŒr die RĂŒckmeldung. Ich habe mittlerweile herausgefunden, dass bei aktiver Firewall eine eigene Firewall-Bridge erstellt wird, die, wieso auch immer, eine weitere IP-Adresse aus dem DHCP-Bereich bezieht. Hat wohl was damit zu tun, da ich keine Forward Regel oder so erstellt habe und die Fritzbox das bei jedem neuen LXC als neues GerĂ€t erkennt. Da ich das ganze einerseits eh nur zum spielen nutze und andererseits nur intern erreichbar ist, habe sie erst mal abgeschaltet und seitdem besteht das Problem nicht mehr. Vielleicht lĂ€uft das ganze auf ARM auch noch nicht ganz rund, keine Ahnung.
Es kann ja eigentlich nur besser werden. VMs habe ich bisher noch keine erstellt. Bin gespannt, was mich da fĂŒr HĂŒrden erwarten. Vielleicht kommt auch noch eine offizielle UnterstĂŒtzung seitens Proxmox, da mit einem stĂ€rkerem Pi mit NVME Schnittstelle schon brauchbar ist.
Hab dein Blog in meine Feeds aufgenommen. Danke fĂŒr die vielen Tutorials.
Hallo,
Ich habe dank deiner Anleitung meinen RPI4 jetzt auch mit Pimoxx zum Laufen bekommen.
Leider habe ich zwei Probleme:
– der LXC Container, welchen ich entsprechend der Anleitung eingerichtet habe (mit einer neueren Debian11 Version), bootet nicht. CPU Last bleibt bei 0,2% hĂ€ngen und RAM ebenso. Mir wĂŒrde RaspberryPi OS allerdings vermutlich eh mehr taugen, daher wĂ€re die Frage: Wie extrahiere ich das rootfs bei Raspberrypi OS in 64bit? der wget Befehl oben funktioniert ja super, mir fehlt nur die korrekte Syntax fĂŒr RaspberryPi OS
– Ich muss ein GPIO Device (Razberry2 Board fĂŒr Z-Wave GerĂ€te) in die VM durchschleifen, um es dann in einem Docker Image zu verwenden. Ich hab es in der VM.conf mit “args: -serial /dev/ttyAMA0 oder /dev/ttyS0” versucht, leider ohne Erfolg. Im Netz finde ich nur Anleitungen um “dev/serial/by-id” zu verwenden, leider wird das aber scheinbar nicht angelegt bei GPIO devices. Hast du eine Idee, wie der korrekte Syntax in der .conf Datei lautet?
Ein Raspberry Pi OS lÀsst sich auf dem Pimox installieren.
Die Anleitung ist fĂŒr einen ESXi-Pi, musst dann die ersten Steps entsprechend fĂŒr Proxmox anpassen.
https://williamlam.com/2020/10/how-to-run-raspberry-pi-os-as-a-vm-on-esxi-arm.html
USB Devices hab ich bisher noch keine durchgereicht, dann kann ich dir leider nicht mit helfen.
Ich habe jetzt am Wochenende mal erfolgreich ein Ubuntu 20.04 als Gast-System installiert, um darauf einen Seafile-Server einzurichten. Man muss sich die Infos etwas zusammensuchen, aber wenn man das Problem mit dem UEFI und der Bootreihenfolge mal gelöst hat und auch sonst auf die Details (Hostname + Bridge etc.) achtet, lÀuft es eigentlich.
Nun warte ich darauf, dass das Ganze irgendwann offiziell unterstĂŒtzt wird. Was kann man dafĂŒr tun, dass das Projekt vorankommt? Offenbar gibt es noch viele LĂŒcken, aber VLAN brauche ich z.B. nicht. Meine VMs laufen nicht gleichzeitig und gehören ins gleiche Netzwerk.
Hi friends! I managed to install the pimox here on the RPi’s 4 successfully.
Does anyone know tell me where I can get a small manageable switch for VLAN’s configuration?
Google for Netgear GS105E Series Switches.
They are able to handle and configure VLANs.
Danke erstmal fĂŒr die tolle ErklĂ€rung!
Ich komm soweit, bis ich die vmbr0 Bridge einrichten soll – ich habe nur eth0 zur Auswahl, aber kein LAN Kabel angeschlossen.
Ich bin ĂŒber WLAN (also eigentlich wlan0) mit dem Netz verbunden.
Das scheint aber nicht als mögliche Bridge auf.
Was kann ich tun?
Bluetooth und Wlan deaktiviere ich immer!
Ob das mit wlan ĂŒberhaupt funktioniert, kann ich dir nicht sagen.
Nimm eth0, geht nix ĂŒber ein Kabel! ;)
Hi,
Ich wollte ein Pihole auf einer Proxmox 7 / RP4 installieren. Kann ich in dem LXC Container trotzdem IPv6 nutzen, oder warum muss man das auf dem Proxmox Host deaktivieren?
LG, Michael
Kann ich dir nicht sagen, steht so auf der Git Seite von Pimox7.
Prechecks, 4. In /etc/network/interfaces, remove any IPv6 addresses.
Hat noch jemand eine Debian Bullseye rootfs.tar.xy rum liegen, die funktioniert? Leider wurde beim oben genannten Respository die debian bullseye rootfs geĂ€ndern und nun wird das Netzwerk-Tool ifupdown nicht mehr unterstĂŒtzt, leider kann proxmox aber ohne dies keine neuen Container erstellen. Freue mich auf eure RĂŒckmeldung :D
Ein neu aufgesetzter Pimox7 Server (mit dem install script), kommt mit ifupdown2.
Neuer Container lÀsst sich problemlos mit einem aktuellen Debian Bullseye rootfs.tar.xy erstellen und starten.
Ggf einfach mal ifupdown2 installieren?
Woher genau beziehst du deine rootfs.tar.xy? Wie gesagt hatte unter “https://uk.lxd.images.canonical.com/images/” geschaut und nach RĂŒcksprache mit den Betreibern (https://github.com/lxc/distrobuilder/issues/615) von LXC hat sich herausgestellt, das diese Debian Bullseye Templates nun networkd nutzen statt ifupdown. Leider kommt Proxmox damit nicht klar und bricht beim erstellen der Container den Vorgang ab. Der Server auf dem Proxmox lĂ€uft (ein Raspberry PI 4 8GB) hat ifupdown2 installiert, da liegt nicht das Problem :D
Die Images sind von: https://uk.lxd.images.canonical.com/images/debian/bullseye/arm64/default/
Hat gestern mit mehreren CTs funktioniert.
Heute nochmal zum testen einen neuen pimox aufgesetzt und es geht nicht mehr. ;)
unable to open file '/etc/network/interfaces.tmp.8052' - No such file or directory
TASK ERROR: unable to create CT 100 - error in setup task PVE::LXC::Setup::post_create_hook
Bei mir hat das Anlegen geklappt, wenn ich beim Erstellen eines Containers unter “Network” bei der IP “Static”. AuswĂ€hlt dann aber nichts eintrĂ€gt. Danach wird man noch nach der DNS-DomĂ€ne gefragt und nach dem DNS-Server, so als ob man zuvor DHCP ausgewĂ€hlt hĂ€tte. Dann wird der Container angelegt. ErlĂ€sst sich jedoch nicht starten. Bei mir kommt die Fehlermeldung:
bpf_program_load_kernel: 334 Operation not permitted – Failed to load bpf program: (null)
run_apparmor_parser: 919 Failed to run apparmor_parser on “/var/lib/lxc/111/apparmor/lxc-111_”: apparmor_parser: Unable to replace “lxc-111_”. Profile doesn’t conform to protocol
apparmor_prepare: 1089 Failed to load generated AppArmor profile
lxc_init: 850 Failed to initialize LSM
__lxc_start: 2007 Failed to initialize container “111”
TASK ERROR: startup for container ‘111’ failed
Diesen Fehler konnte ich umgehen, indem ich am Ende des Config-Files (/etc/pve/lcv/CT.conf) des folgende Zeile angefĂŒgt habe:
lxc.apparmor.profile: lxc-default-with-nesting
Ich kann es noch nicht erklĂ€ren. Es ist aber ein Workaround, den ich recherchiert habe. Ich versuche derweil tieferes VerstĂ€ndnis von AppArmor zu bekommen…
Danke fĂŒr deine Infos.
Hab auch nochmal was probiert und folgendes herausgefunden:
# DEFAULT IMAGE – https://uk.lxd.images.canonical.com/images/debian/bullseye/arm64/default/20220429_05:26/rootfs.tar.xz
IP DHCP -> CT kann nicht erstellt werden
IP STATIC, aber keine IP und Gateway eingetragen -> CT kann erstellt werden, startet und bekommt trotzdem per DHCP eine IP
# CLOUD IMAGE – https://uk.lxd.images.canonical.com/images/debian/bullseye/arm64/cloud/20220429_05:26/rootfs.tar.xz
IP DHCP -> CT kann erstellt werden, startet, Netzwerk funktioniert
IP STATIC -> CT kann erstellt werden, startet, Netzwerk funktioniert
Mit den cloud images hatte ich ĂŒberhaupt keine Probleme.
Hallo, ich habe auf einem RPi4 Pimox erfolgreich installiert. Nun laufen ioBroker, Nextcloud und Matrix gut in eigenen LXC Containern.
Die Daten der Nextcloud will ich auf eine externe, via USB3 angeschlossene SSD (sdb) legen. Das konnte ich einrichten und als Mountpoint durchreichen. Soweit funktioniert alles, aber der Zugriff aus Nextcloud heraus auf die SSD mit den Daten ist nicht wirklich schnell.
root@proxmox:~# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
loop0 7:0 0 8G 0 loop
loop1 7:1 0 8G 0 loop
loop2 7:2 0 8G 0 loop
loop3 7:3 0 8G 0 loop
sda 8:0 0 223.6G 0 disk
ââsda1 8:1 0 256M 0 part /boot
ââsda2 8:2 0 223.3G 0 part /
sdb 8:16 0 931.5G 0 disk
ââCloudData-vm–100–disk–0 254:0 0 808G 0 lvm
root@proxmox:~# sudo hdparm -tT /dev/sdb
/dev/sdb:
Timing cached reads: 2062 MB in 2.00 seconds = 1032.35 MB/sec
Timing buffered disk reads: 558 MB in 3.01 seconds = 185.57 MB/sec
Der Host scheint viel schneller lesen zu können als der LXC Container. Was kann ich machen damit das flotter wird?!
Moin zusammen,
ein kleiner Trick, um sich das eeprom-update zu erleichtern:
1. Raspberry Pi OS (64bit) wie gewohnt installieren
2. Stand der Firmware mit “sudo rpi-eeprom-update” ĂŒberprĂŒfen
3. ggf. mit “sudo rpi-update” die Firmware aktualisieren.
Danke fĂŒr die super Anleitung! :)
LG Jonas
Danke, hab die Anleitung aktualisiert.
Hallo,
ich wĂŒrde ja nach wie vor gerne Raspberry PI OS als VM booten, hat das mittlerweile schon jemand hin bekommen? Im Netz hab ich nichts gefunden bisher
Unter Proxmox lÀuft das ja, ich denk mir das es doch auch unter Pimox möglich sein muss oder?
Viele GrĂŒĂe
Servus,
hab meinen Raspi heute neu gestartet, jetzt kommt Pimox nicht mehr hoch. Die OberflÀche ist nicht mehr erreichbar. Gibt es einen Dienst oder irgendwas was ich kontrollieren kann?
Viele GrĂŒĂe
Schau mal ob diese Services laufen.
pve-cluster.service
pve-manager.service
pvedaemon.service
pveproxy.service
pvestatd.service
Der pve-manager.service und pvestatd.service laufen nicht, die anderen drei schon.
Manuelles starten geht nicht bzw weiss ich nicht wie!
Habs so versucht:
sudo systemctl service pvestatd.service start
Das ist die Fehlermeldung:
sudo: Hostname rpi-pimox1 kann nicht aufgelöst werden: TemporÀrer Fehler bei der Namensauflösung
Unknown command verb service.
OK habs geschafft, in der /etc/hosts war beim Namen “rpi-pimox1” ein Leerzeichen. Komisch ist das es die ganze Zeit so gelaufen ist und jetzt auf einmal nicht mehr. Nachdem ich dieses entfernt hab konnte ich die Dienste starten und ich komm wieder auf die OberflĂ€che.
Danke dir fĂŒr die Hilfe ;-)
Hi,
wollte ein CT erstellen und bekam den Fehler. Weis jemand was das ist?
Formatting ‘/var/lib/vz/images/100/vm-100-disk-0.raw’, fmt=raw size=8589934592 preallocation=off
Creating filesystem with 2097152 4k blocks and 524288 inodes
Filesystem UUID: 9ed37c26-aa61-4df7-a8d5-11466a97461c
Superblock backups stored on blocks:
32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632
extracting archive ‘/var/lib/vz/template/cache/debian-10.10-standard_arm64_2022.01.16.tar.xz’
xz: (stdin): File format not recognized
tar: Child returned status 1
tar: Error is not recoverable: exiting now
TASK ERROR: unable to create CT 100 – command ‘lxc-usernsexec -m u:0:100000:65536 -m g:0:100000:65536 — tar xpf – -J –totals –one-file-system -p –sparse –numeric-owner –acls –xattrs ‘–xattrs-include=user.*’ ‘–xattrs-include=security.capability’ ‘–warning=no-file-ignored’ ‘–warning=no-xattr-write’ -C /var/lib/lxc/100/rootfs –skip-old-files –anchored –exclude ‘./dev/*” failed: exit code 2
ok, diese Version funktioniert
images/debian/bullseye/arm64/cloud/20230207_12:13
https://uk.lxd.images.canonical.com/images/debian/bullseye/arm64/cloud/20230207_12:13/rootfs.tar.xz
Thank you.
PiMox7
Using hints from here, I’ve just managed to get Debian 12 Bullseye working with the latest Cloud image:
https://uk.lxd.images.canonical.com/images/debian/bookworm/arm64/cloud/20230614_05:24/rootfs.tar.xz
Debian_Bookworm_Arm64_20230614_cloud_rootfs.tar.xz
When configuring the CT, leave IP = Static. DO NOT enter any IP address.
Boot the CT,
# apt install nano
# nano /etc/systemd/network/eth0.network
Change:
[Network]
Address=192.168.1.101/24
Gateway=192.168.1.1
# systemctl restart systemd-networkd
# reboot now
You’ve now got the static IP set up (if you don’t reboot, it’ll still keep the DHCP assigned IP in addition to the static ip)
Thank you!
Tach,
es gibt in der Zwischenzeit ein Port auf pve 8.x, der nun auch auf Raspios Debian GNU/Linux 12 (bookworm) lĂ€uft. Ich habe das mit einem Pi4 Model B mit 4GB und einem USB Stick 64GB ohne Probleme ans Laufen bebommen. Der Port wurde hier https://github.com/jiangcuo/Proxmox-Port veröffentlilcht. Hier gibt es auch eine Schritt-fĂŒr-Schritt Anleitung.
Folgende Schritte habe gewÀhlt:
1. mit Raspi Imager “2023-10-10-raspios-bookworm-arm64.img.xz” auf den USB Stick laden
2. Boot und dann Bootloader prĂŒfen und ggf. updaten
3. /etc/hosts anpassen und IP Adresse und Systemname festeintragen
4. Proxmox VE Port repository key herunterladen und eintragen
5. Pakete ifupdown2, proxmox-ve, postfix, open-iscsi installieren
6. root ein Password vergeben (damit ein Login ĂŒber die WeboberflĂ€che möglich ist)
7. SWAP erhöhen (Tipp von shorty), reboot
8. Nach Login ĂŒber die WeboberflĂ€che eine Bridge in der Rasppi Node anlegen.
9. ggf. CPU Info patchen (Tipp von shorty)
Weitere Beschreibungen incl. Mini Wiki sind im GitHub von dem Port (https://github.com/jiangcuo/Proxmox-Port) zu finden.
DANKE! :)
Sehr geehrter Herr Bachmann,
ohne Ihre Anleitung hat man keine Chance pimox7 incl. VM zum laufen zu bringen.
Ich habe die Erfahrung gemacht, dass die Installation mit SSH/Putty nicht funktionert.
Am besten funktioniert es mit Monitor, Maus und Tastatur am Raspi direkt.
Vielen Dank fĂŒr Ihre Anleitung.