<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Systemverwaltung &#8211; Linux und Ich</title>
	<atom:link href="https://linuxundich.de/tag/systemverwaltung/feed/" rel="self" type="application/rss+xml" />
	<link>https://linuxundich.de</link>
	<description>Blog über Ubuntu, Linux, Android und IT</description>
	<lastBuildDate>Wed, 07 May 2025 08:25:19 +0000</lastBuildDate>
	<language>de</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>

<image>
	<url>https://linuxundich.de/wp-content/uploads/2025/04/cropped-lui-app-512-32x32.png</url>
	<title>Systemverwaltung &#8211; Linux und Ich</title>
	<link>https://linuxundich.de</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>USB-Sticks und SD-Karten auf Fehler prüfen</title>
		<link>https://linuxundich.de/gnu-linux/usb-sticks-und-sd-karten-auf-fehler-pruefen/</link>
					<comments>https://linuxundich.de/gnu-linux/usb-sticks-und-sd-karten-auf-fehler-pruefen/#comments</comments>
		
		<dc:creator><![CDATA[Christoph Langner]]></dc:creator>
		<pubDate>Wed, 08 Dec 2021 17:10:11 +0000</pubDate>
				<category><![CDATA[GNU/Linux]]></category>
		<category><![CDATA[Sicherheit]]></category>
		<category><![CDATA[Systemverwaltung]]></category>
		<category><![CDATA[Tipps]]></category>
		<category><![CDATA[USB-Stick]]></category>
		<guid isPermaLink="false">https://linuxundich.de/?p=41978</guid>

					<description><![CDATA[Im Gegensatz zu Festplatten besitzen USB-Sticks und SD-Speicherkarten keine mechanischen Bauteile, die verschleißen. Trotzdem gehen auch modernen Flashspeicher kaputt. Mit Badblocks und F3 lassen sich Flashspeicher auf Fehler prüfen und reparieren.]]></description>
										<content:encoded><![CDATA[
<p>Ich hatte in letzter Zeit häufig das Problem, dass sich diese miesen Sticks immer oben im Stapel ansammelten und somit beim Griff in die Grabbelkiste immer als erste in meiner Hand lagen. Spätestens beim Schreiben größerer Datenmengen, etwa eines ISO-Images einer Linux-Distribution oder eines RasPi-OS-Images für einen Raspberry Pi, kommt es dann zu Problemen. Die Schreib-/Leserate bricht ein oder es treten gleich aussagekräftigere IO-Fehler auf. Um diese Problematik auszuschließen, möchte ich also alle meine USB-Sticks und SD-Speicherkarten einmal auf Fehler überprüfen und defekte Datenträger für immer aussortieren. Unter Linux geht das mit Bordmitteln.</p>



<h2 class="wp-block-heading">USB-Sticks auf Fehler prüfen</h2>



<p>Im ersten Schritt müsst ihr die Geräte-ID des USB-Sticks oder der Speicherkarte herausfinden. Steckt den Datenträger daher an den Rechner an oder legt die SD-Karte in das entsprechende Lesegerät und gebt im Terminal <code>lsblk</code> ein. Das Kommando listet euch sämtliche am Rechner angeschlossene Datenträger auf. Anhand der Größe des Datenträgers lässt sich in der Regel die Geräte-ID erkennen. In meinem Beispiel bindet das System meinen 8 GByte großen USB-Stick unter <code>sdc</code> (also <code>/dev/sdc</code> in der vollständigen Syntax) ein. Seid ihr euch nicht sicher, dann zieht den zu kontrollierenden Datenträger ab und wiederholt <code>lsblk</code>. Fehlt <code>sdc</code> in der ausgegebenen Liste, dann habt ihr die richtige Kennung. Alternativ lässt sich die Kennung auch mit grafischen Tools wie der Laufwerksverwaltung von Gnome ermitteln.</p>



<pre class="wp-block-preformatted">$ <strong>lsblk</strong>
[...]
sdc           8:32   1   7,5G  0 disk 
├─sdc1        8:33   1   2,9G  0 part /run/media/toff/Ubuntu 21.10 amd64
├─sdc2        8:34   1   4,1M  0 part 
└─sdc3        8:35   1   300K  0 part 
[...]</pre>



<figure class="wp-block-image size-full"><img fetchpriority="high" decoding="async" width="963" height="667" src="https://linuxundich.de/wp-content/uploads/2021/12/gnome-laufwerksverwaltung.png" alt="" class="wp-image-41987" srcset="https://linuxundich.de/wp-content/uploads/2021/12/gnome-laufwerksverwaltung.png 963w, https://linuxundich.de/wp-content/uploads/2021/12/gnome-laufwerksverwaltung-640x443.png 640w, https://linuxundich.de/wp-content/uploads/2021/12/gnome-laufwerksverwaltung-606x420.png 606w, https://linuxundich.de/wp-content/uploads/2021/12/gnome-laufwerksverwaltung-681x472.png 681w" sizes="(max-width: 963px) 100vw, 963px"><figcaption class="wp-element-caption">Auch die in Gnome integrierte Laufwerksverwaltung zeigt die Geräte-IDs von Festplatten, SSDs, USB-Sticks und anderen in das System eingebundenen Datenträgern an.</figcaption></figure>



<p>Für die eigentliche Fehlersuche kommt nun das Kommando <code>badblocks</code> aus dem Paket <em>e2fsprogs</em> zum Einsatz, das zur Grundausstattung der üblichen Distributionen gehört. Es kann vorkommen, dass sich Badblocks erst einmal weigert, die Überprüfung zu starten, da das Laufwerk bereits vom System benutzt sei. In der Regel kommt das davon, dass das Betriebssystem den Datenträger automatisch einbindet, sobald ihr den USB-Stick ansteckt. Auf meinem System genügt das Antippen des Icons zum Aushängen des Laufwerks im Dateimanager nicht, ich muss die Geräte-ID des Laufwerks und der dazugehörigen Partitionen gezielt mit <code>umount</code> aushängen.</p>



<p class="has-luminous-vivid-orange-background-color has-background"><strong>Achtung:</strong> An dieser Stelle muss ich eine Warnung schreiben: Beim Prüfen auf Fehler überschreibt Badblocks sämtliche Daten und Partitionen auf dem angegebenen Datenträger. Stellt daher auf jeden Fall sicher, dass ihr die richtige Geräte-ID an das Kommando übergibt und sichert vor der Aktion wichtige Daten vom betroffenen USB-Stick oder der SD-Speicherkarte. Im Fall der Fälle könnt die Daten nach der Fehlerüberprüfung nicht wiederherstellen.</p>



<pre class="wp-block-preformatted">$ <strong>sudo badblocks -wsv /dev/sdc</strong>
/dev/sdc wird offensichtlich vom System genutzt; es ist zu unsicher, Badblocks zu starten!
$ <strong>sudo umount /dev/sdc*</strong>
umount: /dev/sdc: nicht eingehängt.
umount: /dev/sdc2: nicht eingehängt.
umount: /dev/sdc3: nicht eingehängt.</pre>



<p>Beim Aufruf von Badblocks übergebt ihr dem Kommando die Parameter <code>-wsv</code> sowie die Geräte-ID. Die Parameter weisen das Programm an, einen destruktiven Schreibtest auszuführen (<code>-w</code>), den Fortschritt anzuzeigen (<code>-s</code>) und generell mehr Informationen auszugeben (<code>-v</code>). Der ausführliche Test beschreibt jeden Block des Datenträgers viermal hintereinander mit unterschiedlichen Mustern (0xaa, 0x55, 0xff und 0x00). Je nach Geschwindigkeit und Kapazität müsst ihr dafür eine längere Zeit einplanen. Die Prüfung des von mir im Beispiel benutzten USB-Sticks nach dem USB-2.0-Standard und 8 GByte Kapazität benötigte über eine Stunde.</p>



<pre class="wp-block-preformatted">$ <strong>sudo badblocks -wsv /dev/sdc</strong>
Es wird getestet Mit Muster 0xaa:   0.00% erledigt, 0:00 verstrichen. (0/0/0 Fehler) erledigt                                             
Lesen und Vergleichen:erledigt
Es wird getestet Mit Muster 0x55:   0.00% erledigt, 23:47 verstrichen. (0/0/0 Fehler) erledigt                                             
Lesen und Vergleichen:erledigt
Es wird getestet Mit Muster 0xff:   0.00% erledigt, 47:33 verstrichen. (0/0/0 Fehler) erledigt                                             
Lesen und Vergleichen:erledigt
Es wird getestet Mit Muster 0x00:   0.00% erledigt, 1:11:26 verstrichen. (0/0/0 Fehler) erledigt                                             
Lesen und Vergleichen:erledigt</pre>



<p>Neben der destruktiven Prüfmethode unterstützt Badblocks einen zerstörungsfreien Lesen+Schreiben-Modus. Diesen aktiviert ihr mit dem Parameter <code>-n</code> anstatt von <code>-w</code>. In dieser Variante sichert Badblocks die Daten des geprüften Speicherblocks zuerst in den Arbeitsspeicher, überschreibt dann den Datenblock mit Zufallsdaten und prüft, ob die Daten korrekt geschrieben werden konnten. Abschließend schreibt Badblocks die Sicherung wieder auf den Datenträger zurück. Auf den ersten Blick erscheint die Prüfroutine schneller, da es nur einen Prüfdurchlauf gibt, in der Praxis brauch das Sichern und Zurückschreiben der bestehenden Daten allerdings wesentlich mehr Zeit. In meinem Beispiel anstatt nur etwas mehr als einer Stunde über 2,5 Stunden.</p>



<pre class="wp-block-preformatted">$ <strong>sudo badblocks -nsv /dev/sdc</strong>
Es wird nach defekten Blöcken im zerstörungsfreien Lesen+Schreiben-Modus gesucht
Von Block 0 bis 7812607
Es wird nach defekten Blöcken gesucht (zerstörungsfreier Lesen+Schreiben-Modus)
Es wird mit zufälligen Mustern getestet:  94.36% erledigt, 2:35:18 verstrichen. (0/0/0 Fehler)</pre>



<h2 class="wp-block-heading">Gefälschte USB-Sticks ermitteln</h2>



<p>Einen Schritt weiter geht das Tool <a href="https://github.com/AltraMayor/f3" target="_blank" rel="noopener">F3</a> oder etwas länger Fight Flash Fraud. Das Open-Source-Programm prüft ausführlich, ob ein Datenträger wirklich die Kapazität besitzt, die er vorgibt zu haben. Ein Thema, das leider <a href="https://www.heise.de/ct/artikel/Gefaelschte-USB-Sticks-und-SD-Karten-Darauf-sollten-Sie-achten-4325666.html" target="_blank" rel="noopener">immer noch aktuell</a> ist, besonders wenn man super günstige Angebote aus dem Internet kauft. Um gefälschte USB-Sticks oder SD-Speicherkarten aufzudecken, müsst ihr das Programm aus dem Paketquellen installieren. Debian, Ubuntu, Fedora und Co. führen das Konsolenwerkzeug in den offiziellen Repositories, das Paket nennt sich in der Regel <em>f3</em>. Arch Linux führt das Programm nur im AUR, zur Installation braucht ihr daher einen AUR-Helper.</p>



<pre class="wp-block-preformatted">### Installation unter Arch Linux oder Manjaro:
$ <strong>yay -S f3</strong>
### Installation unter Debian, Ubuntu oder Raspberry Pi OS:
$ <strong>sudo apt install f3</strong></pre>



<p>Die Kommandos zum Prüfen von USB-Datenträgern lauten nun <code>f3write</code>, <code>f3read</code> und <code>f3probe</code>. Die ersten zwei Befehle müsst ihr in Kombination nutzen. Als Option übergebt ihr den Kommandos jeweils den Mountpunkt des Datenträgers. <code>f3write</code> schreibt nun so lange ein Gigabyte große Dateien auf den eingebundenen Datenträger, bis der Platz ausgeht. Anschließend prüft ihr mit <code>f3read</code>, ob die geschriebenen Daten auch wirklich wieder gelesen werden können. Falls es sich um einen gefälschten USB-Stick oder eine manipulierte SD-Speicherkarte handeln sollte, dann würde <code>f3read</code> korrupte Sektoren ausgeben. Bei dieser Prüfung bleiben alle Daten auf dem Datenträger erhalten, ihr müsst am Ende nur wieder die h2w-Dateien löschen, sonst habt ihr keinen Platz mehr auf dem Stick. </p>



<pre class="wp-block-preformatted">$ <strong>f3write /run/media/toff/291E-6F9C</strong>
[...]
Free space: 3.72 GB
Creating file 1.h2w ... OK!
Creating file 2.h2w ... OK!
Creating file 3.h2w ... OK!
Creating file 4.h2w ... OK!
Free space: 0.00 Byte
Average writing speed: 3.91 MB/s
$ <strong>f3read /run/media/toff/291E-6F9C</strong>
[...]
                  SECTORS      ok/corrupted/changed/overwritten
Validating file 1.h2w ... 2097152/        0/      0/      0
Validating file 2.h2w ... 2097152/        0/      0/      0
Validating file 3.h2w ... 2097152/        0/      0/      0
Validating file 4.h2w ... 1518736/        0/      0/      0

  Data OK: 3.72 GB (7810192 sectors)
Data LOST: 0.00 Byte (0 sectors)
	       Corrupted: 0.00 Byte (0 sectors)
	Slightly changed: 0.00 Byte (0 sectors)
	     Overwritten: 0.00 Byte (0 sectors)
Average reading speed: 14.73 MB/s
$ <strong>ls -al /run/media/toff/291E-6F9C</strong>
insgesamt 3907596
drwxr-xr-x  3 toff toff       4096  1. Jan 1970   .
drwxr-x---+ 4 root root         80  7. Dez 16:27  ..
-rw-r--r--  1 toff toff 1073741824  7. Dez 18:35  1.h2w
-rw-r--r--  1 toff toff 1073741824  7. Dez 18:40  2.h2w
-rw-r--r--  1 toff toff 1073741824  7. Dez 18:44  3.h2w
-rw-r--r--  1 toff toff  777592832  7. Dez 18:47  4.h2w
[...]</pre>



<p>Ein wenig schneller arbeitet <code>f3probe --destructive</code>. Die Option <code>--destructive</code> ist optional, die beschleunigt die Aktion jedoch ganz wesentlich. Bei diesem Test beschreibt F3 nur die nötigsten Sektoren und kümmert sich auch nicht um eine Datensicherung. Da die Probe direkt auf die Hardware zugreif, gebt ihr als Parameter nicht den Mountpunkt sondern die Geräte-ID (hier <code>/dev/sdg</code>) an. Der Test mit meinem 4 GByte großen USB-2.0-Stick dauert so nur ein wenig mehr als sieben Minuten. Habt aber bei dieser Prüfung wieder im Hinterkopf, dass die Routine sämtliche Datenblöcke auf dem Datenträger überschreibt.</p>



<pre id="block-2636e14f-4e5d-4263-a2a0-8a74b05f2357" class="wp-block-preformatted">$ <strong>f3probe --destructive --time-ops /dev/sdg</strong>
[...]
Good news: The device `/dev/sdg' is the real thing

Device geometry:
	         *Usable* size: 3.73 GB (7831552 blocks)
	        Announced size: 3.73 GB (7831552 blocks)
	                Module: 4.00 GB (2^32 Bytes)
	Approximate cache size: 0.00 Byte (0 blocks), need-reset=no
	   Physical block size: 512.00 Byte (2^9 Bytes)

Probe time: 7'17"
 Operation: total time / count = avg time
      Read: 2.73s / 4812 = 568us
     Write: 7'13" / 3637313 = 119us
     Reset: 1us / 1 = 1us</pre>



<p>Sowohl Badblocks als auch F3 helfen beim Analysieren von Fehlern auf Datenträgern. Bei der Prüfung müsst ihr allerdings immer ein wenig Zeit mitbringen. Die ausführliche Analyse eines 8 GByte großen USB-Sticks kann schonmal zwei Stunden dauern, besonders wenn bei der Prüfung die Daten erhalten bleiben sollen und der USB-Stick nur mit dem langsamen USB-2.0-Protokoll arbeitet. Danach könnt ihr aber davon ausgehen, dass der USB-Stick oder die SD-Speicherkarte auch wirklich funktionieren und die Kapazität besitzen, die auf dem Aufdruck steht.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://linuxundich.de/gnu-linux/usb-sticks-und-sd-karten-auf-fehler-pruefen/feed/</wfw:commentRss>
			<slash:comments>10</slash:comments>
		
		
			</item>
		<item>
		<title>Upgrade von Raspberry Pi OS auf Bullseye</title>
		<link>https://linuxundich.de/raspberry-pi/raspberry-pi-os-auf-bullseye-aktualisieren/</link>
					<comments>https://linuxundich.de/raspberry-pi/raspberry-pi-os-auf-bullseye-aktualisieren/#comments</comments>
		
		<dc:creator><![CDATA[Christoph Langner]]></dc:creator>
		<pubDate>Tue, 30 Nov 2021 11:04:59 +0000</pubDate>
				<category><![CDATA[Raspberry Pi]]></category>
		<category><![CDATA[Howto]]></category>
		<category><![CDATA[Raspberry Pi OS]]></category>
		<category><![CDATA[Raspbian]]></category>
		<category><![CDATA[Systemverwaltung]]></category>
		<category><![CDATA[Upgrade]]></category>
		<guid isPermaLink="false">https://linuxundich.de/?p=41856</guid>

					<description><![CDATA[Beim offiziellen Betriebssystem für den Raspberry Pi, dem inzwischen Raspberry Pi OS getauftem Raspbian, haben die Entwickler der Raspberry Pi Foundation das Rad nicht neu erfunden. Anstatt extra eine eigene Distribution aus dem Boden zu stampfen, setzen sie lieber auf Debian als Grundsystem und passen die Software an die eigenen Bedürfnisse und Vorstellungen an. Mit [&#8230;]]]></description>
			<br>
<b>Warning</b>:  Undefined array key "snippetVars" in <b>/hosts/linuxundich.de/wp-content/plugins/post-snippets/src/PostSnippets/PSallSnippets.php</b> on line <b>723</b><br>
							<content:encoded><![CDATA[
<p>Beim offiziellen Betriebssystem für den Raspberry Pi, dem inzwischen Raspberry Pi OS getauftem Raspbian, haben die Entwickler der Raspberry Pi Foundation das Rad nicht neu erfunden. Anstatt extra eine eigene Distribution aus dem Boden zu stampfen, setzen sie lieber auf Debian als Grundsystem und passen die Software an die eigenen Bedürfnisse und Vorstellungen an. Mit dem Erscheinen einer neuen Debian-Version gibt es somit aber auch immer eine neue Ausgabe des Raspberry Pi OS. So geschehen <a href="https://www.raspberrypi.com/news/raspberry-pi-os-debian-bullseye/" target="_blank" rel="noopener">Anfang November</a> dieses Jahres: Das Raspberry Pi OS &#8222;Bullseye&#8220; ersetzt &#8222;Buster&#8220;, genauso wie beim Vorbild Debian, das den Sprung auf Bullseye bereits im August gemacht hat.</p>



<p>Nutzer bekommen das Upgrade nun nicht automatisch auf den RasPi gespielt. Das Upgrade muss man von Hand einleiten. Dabei spielt das System nicht nur einen neuen Linux Kernel auf die Speicherkarte, sondern alle bis dahin aufgelaufenen Neuerungen aus dem Open-Source-Universum rund um GNU/Linux. Für Nutzer des Raspberry Pi 4 oder des Compute Module 4 mit dem aktuellen Chipsatz (zu erkennen an der auf dem Chipsatz aufgedruckten Endung C0T) bedeutet das sogar ein wenig mehr Geschwindigkeit, da das System damit ganz offiziell mit 1,8 GHz laufen darf. Wie bei Distributions-Upgrade allerdings üblich sollte man vor der Aktion ein Backup starten.</p>



<h2 class="wp-block-heading">System- und Firmware-Upgrade</h2>



<p>In meinem kleinen Heimnetz läuft ein Raspberry Pi 3 als kleine eierlegende Wollmilchsau. Der Mini-Rechner filtert mittels PiHole Anzeigen aus dem Datenstrom. Er tunnelt via WireGuard einen sicheren Zugang via VPN durch das Internet ins eigene LAN. Zudem macht mein Raspberry Pi einen steinalten Canon-Scanner netzwerkfähig. Von daher sind bei diesem System einige Dienste eingerichtet und das System an mehr als einer Stelle individuell konfiguriert. Ich war daher skeptisch, ob das Upgrade ohne Komplikationen durchläuft und habe erst einmal ein paar Wochen abgewartet, bis etwaige Schwierigkeiten im Upgrade-Prozess ausgebügelt werden konnten.</p>



<pre class="wp-block-code"><code>### Bestehende Installation auf aktuellen Stand bringen:
$ <strong>sudo apt update</strong>
$ <strong>sudo apt full-upgrade</strong>
$ <strong>sudo rpi-update</strong>
 *** Raspberry Pi firmware updater by Hexxeh, enhanced by AndrewS and Dom
 *** Performing self-update
&#91;...]
 *** Backing up modules 5.10.63-v7+
#############################################################
WARNING: This update bumps to rpi-5.10.y linux tree
See: https://www.raspberrypi.org/forums/viewtopic.php?f=29&amp;t=288234
'rpi-update' should only be used if there is a specific
reason to do so - for example, a request by a Raspberry Pi
engineer or if you want to help the testing effort
and are comfortable with restoring if there are regressions.

DO NOT use 'rpi-update' as part of a regular update process.

##############################################################
Would you like to proceed? (y/N)</code></pre>



<p>Im oben aufgeführten ersten Schritt solltet ihr die bestehende Installation des Raspberry Pi OS auf einen aktuellen Stand bringen. Ich selbst arbeite auf meinen RasPi ohne grafische Oberfläche, logge mich daher via SSH auf dem System ein. Alternativ könnt ihr das Upgrade natürlich aber auch unter der grafischen Oberfläche des Systems ausführen. Der letzte Schritt <code>sudo rpi-update</code> ist optional: Er bringt die direkt auf dem Raspberry Pi installierte Firmware auf den neusten Stand. Wie immer bei solchen Firmware-Updates ist hier Vorsicht angebracht. Theoretisch könnt ihr damit das System in das Nirvana schicken, auf der anderen Seite bügelt solch ein Update aber auch Schwächen aus oder schaltet neue Funktionen frei.</p>


<table class="empfehlung" style="height: 252px;">
<tbody>
<tr style="height: 18px;">
<th style="height: 18px; width: 603.844px;" colspan="3">Raspberry Pi und Zubehör kaufen (Anzeige)</th>
</tr>
<tr style="height: 18px;">
<th style="height: 18px; width: 219.562px;">Komponente</th>
<th style="height: 18px; width: 238.594px;">Bemerkung</th>
<th style="height: 18px; width: 133.688px;">Preise</th>
</tr>
<tr style="height: 18px;">
<td style="height: 18px; width: 219.562px;">Raspberry Pi 4 (bis zu 8GByte)</td>
<td style="height: 18px; width: 238.594px;">Inkl. WLAN und Bluetooth</td>
<td style="height: 18px; width: 133.688px;"><a href="https://amzn.to/3EaqLJQ" target="_blank" rel="noopener">Ab ca. 40 Euro</a></td>
</tr>
<tr style="height: 18px;">
<td style="height: 18px; width: 219.562px;">Raspberry Pi 400</td>
<td style="height: 18px; width: 238.594px;">Rapberry in Tastatur integriert</td>
<td style="height: 18px; width: 133.688px;"><a href="https://amzn.to/3D71MG0" target="_blank" rel="noopener">Ab ca. 77 Euro</a></td>
</tr>
<tr style="height: 18px;">
<td style="height: 18px; width: 219.562px;">Raspberry Pi Zero 2 W</td>
<td style="height: 18px; width: 238.594px;">Inkl. Gehäuse</td>
<td style="height: 18px; width: 133.688px;"><a href="https://amzn.to/3G11NgM" target="_blank" rel="noopener">Ab ca. 26 Euro</a></td>
</tr>
<tr style="height: 18px;">
<td style="height: 18px; width: 219.562px;">Gehäuse für RPi4</td>
<td style="height: 18px; width: 238.594px;">Diverse Modelle zur Wahl</td>
<td style="height: 18px; width: 133.688px;"><a href="https://amzn.to/3o6Ny3W" target="_blank" rel="noopener">Ab ca. 7 Euro</a></td>
</tr>
<tr style="height: 18px;">
<td style="height: 18px; width: 219.562px;">Netzteil</td>
<td style="height: 18px; width: 238.594px;">Ideal mit mind. 2500 mA</td>
<td style="height: 18px; width: 133.688px;"><a href="https://amzn.to/3phcghr" target="_blank" rel="noopener">Ab ca. 10 Euro</a></td>
</tr>
<tr style="height: 18px;">
<td style="height: 18px; width: 219.562px;">MicroSD-Speicherkarte</td>
<td style="height: 18px; width: 238.594px;">Mind. 16 GByte, Class 10</td>
<td style="height: 18px; width: 133.688px;"><a href="https://amzn.to/3Ea96SD" target="_blank" rel="noopener">Ab ca. 8,90 Euro</a></td>
</tr>
<tr style="height: 18px;">
<td style="height: 18px; width: 219.562px;">Micro-HDMI-Kabel</td>
<td style="height: 18px; width: 238.594px;">CEC-fähig</td>
<td style="height: 18px; width: 133.688px;"><a href="https://amzn.to/31jUS3i" target="_blank" rel="noopener">Ab ca. 5 Euro</a></td>
</tr>
<tr style="height: 18px;">
<th style="height: 18px; width: 603.844px;" colspan="3">Optional</th>
</tr>
<tr style="height: 18px;">
<td style="height: 18px; width: 219.562px;">Raspberry Pi-Touchscreen</td>
<td style="height: 18px; width: 238.594px;">7 Zoll mit 800 x 480 Pixeln</td>
<td style="height: 18px; width: 133.688px;"><a href="http://amzn.to/1NkdAdF" target="_blank" rel="noopener">Ab ca. 85 Euro</a></td>
</tr>
<tr style="height: 18px;">
<td style="height: 18px; width: 219.562px;">Raspberry Pi-Frame für Display</td>
<td style="height: 18px; width: 238.594px;">Fünf verschiedene Farben</td>
<td style="height: 18px; width: 133.688px;"><a href="http://amzn.to/1WJsI5W" target="_blank" rel="noopener">Ab ca. 20 Euro</a></td>
</tr>
<tr style="height: 18px;">
<td style="height: 18px; width: 219.562px;">Logitech K400 Plus Touch</td>
<td style="height: 18px; width: 238.594px;">Schnurlose Tastatur mit Touchpad</td>
<td style="height: 18px; width: 133.688px;"><a href="http://amzn.to/1Nkdum8" target="_blank" rel="noopener">Ab ca. 35 Euro</a></td>
</tr>
<tr style="height: 18px;">
<td style="height: 18px; width: 219.562px;">USB-WLAN-Stick</td>
<td style="height: 18px; width: 238.594px;">150 Mbit/s, IEEE802.11b/g/n</td>
<td style="height: 18px; width: 133.688px;"><a href="http://amzn.to/1NkdtyQ" target="_blank" rel="noopener">Ab ca. 7 Euro</a></td>
</tr>
</tbody>
</table>


<h2 class="wp-block-heading">Upgrade auf Buster auf Bullseye</h2>



<p>Zur Sicherheit startet ihr das System nach diesem Upgrade einmal durch und kontrolliert, ob der Raspberry Pi auch sicher mit Strom versorgt wird. Das komplette Upgrade hat bei mir in etwa zwei Stunden gedauert, während dieser Zeit sollte der Strom auf keinen Fall ausfallen. Loggt euch nun wieder in das System ein und erstellt zunächst eine Sicherheitskopie der für die Paketverwaltung zuständigen Konfigurationsdatei <code>/etc/apt/sources.list</code>. Das nächste Kommando im folgenden Listing tauscht dann jede Erwähnung von <code>buster</code> gegen <code>bullseye</code>innerhalb der Datei. Alternativ könnt ihr diesen Schritt natürlich auch mit einem Texteditor erledigen.</p>



<pre class="wp-block-code"><code>### Upgrade auf Raspberry Pi OS Bullseye einspielen:
$ <strong>sudo cp /etc/apt/sources.list /etc/apt/sources.list.bak</strong>
$ <strong>sudo sed -i 's/buster/bullseye/g' /etc/apt/sources.list</strong>
$ <strong>sudo apt update</strong>
&#91;...]
Reading state information... Done
429 packages can be upgraded. Run 'apt list --upgradable' to see them.
$ <strong>sudo apt full-upgrade</strong></code></pre>



<p>Danach lasst ihr mit <code>sudo apt update</code> die Paketquellen neu einlesen und startet abschließend mit dem <code>sudo apt full-upgrade</code> den eigentlichen Upgrade-Prozess, der auf meinem System über 300 MByte an neuen Paketen in das System spült. Das Upgrade läuft mehr oder minder automatisch durch, allerdings informiert die Paketverwaltung zwischendurch über eine Reihe von Neuerungen, die ihr mit <kbd>[Q]</kbd> quittieren müsst. Sind wie bei mir Dienste installiert, fragt das Upgrade zudem im weiteren Verlauf ab, ob ihr die Dienste während des Upgrade-Prozesses ohne Nachfrage neu starten möchtet &#8212; in der Regel könnt ihr das erlauben. </p>



<figure class="wp-block-image size-full"><img decoding="async" width="898" height="800" src="https://linuxundich.de/wp-content/uploads/2021/11/raspios-bullseye-upgrade.png" alt="" class="wp-image-41859" srcset="https://linuxundich.de/wp-content/uploads/2021/11/raspios-bullseye-upgrade.png 898w, https://linuxundich.de/wp-content/uploads/2021/11/raspios-bullseye-upgrade-640x570.png 640w, https://linuxundich.de/wp-content/uploads/2021/11/raspios-bullseye-upgrade-471x420.png 471w, https://linuxundich.de/wp-content/uploads/2021/11/raspios-bullseye-upgrade-681x607.png 681w" sizes="(max-width: 898px) 100vw, 898px"><figcaption class="wp-element-caption">Das Upgrade von Raspberry Pi OS &#8222;Buster&#8220; auf &#8222;Bullseye&#8220; lädt über 300 MByte an Daten aus dem Netz.</figcaption></figure>



<figure class="wp-block-image size-full"><img decoding="async" width="893" height="791" src="https://linuxundich.de/wp-content/uploads/2021/11/after-bullseye-upgrade.png" alt="" class="wp-image-41862" srcset="https://linuxundich.de/wp-content/uploads/2021/11/after-bullseye-upgrade.png 893w, https://linuxundich.de/wp-content/uploads/2021/11/after-bullseye-upgrade-640x567.png 640w, https://linuxundich.de/wp-content/uploads/2021/11/after-bullseye-upgrade-474x420.png 474w, https://linuxundich.de/wp-content/uploads/2021/11/after-bullseye-upgrade-681x603.png 681w" sizes="(max-width: 893px) 100vw, 893px"><figcaption class="wp-element-caption">Vor dem Einspielen der Upgrades zeigt das System ein paar Informationen über wichtigsten Neuerungen an.</figcaption></figure>



<figure class="wp-block-image size-full"><img loading="lazy" decoding="async" width="892" height="791" src="https://linuxundich.de/wp-content/uploads/2021/11/bullseye-upgrade-dienste.png" alt="" class="wp-image-41865" srcset="https://linuxundich.de/wp-content/uploads/2021/11/bullseye-upgrade-dienste.png 892w, https://linuxundich.de/wp-content/uploads/2021/11/bullseye-upgrade-dienste-640x568.png 640w, https://linuxundich.de/wp-content/uploads/2021/11/bullseye-upgrade-dienste-474x420.png 474w, https://linuxundich.de/wp-content/uploads/2021/11/bullseye-upgrade-dienste-681x604.png 681w" sizes="auto, (max-width: 892px) 100vw, 892px"><figcaption class="wp-element-caption">Während des Upgrades müssen zwischendurch ein paar Dienste des Systems neu gestartet werden.</figcaption></figure>



<p>Kritisch wird es bei Nachfragen wie hier im nachfolgenden Bild. In diesem Fall registriert die Paketverwaltung eine Änderung an der Konfigurationsdatei <code>/etc/default/useradd</code>. Ihr habt nun die Wahl: Mit <kbd>[Y]</kbd> das unveränderte Original des Entwicklers zu übernehmen und somit eure eigenen Änderungen zurückzusetzen oder mit <kbd>[N]</kbd> eure Version der Konfiguration zu behalten und somit eventuell Neuerungen des Dienstes zu verpassen. Am besten schaut ihr euch mit <kbd>[D]</kbd> den Unterschied zwischen beiden Versionen an und entscheidet dann von Fall zu Fall, was zu tun ist. Ganz ohne Wissen über die betroffenen Dienste kann es hier allerdings zu ein paar kniffligen Situationen kommen. Ich für meinen Teil übernehme gerne die Version der Paketentwickler und passe meine Konfiguration danach wieder von Hand an.</p>



<figure class="wp-block-image size-full"><img loading="lazy" decoding="async" width="900" height="795" src="https://linuxundich.de/wp-content/uploads/2021/11/bullseye-upgrade-useradd.png" alt="" class="wp-image-41869" srcset="https://linuxundich.de/wp-content/uploads/2021/11/bullseye-upgrade-useradd.png 900w, https://linuxundich.de/wp-content/uploads/2021/11/bullseye-upgrade-useradd-640x565.png 640w, https://linuxundich.de/wp-content/uploads/2021/11/bullseye-upgrade-useradd-475x420.png 475w, https://linuxundich.de/wp-content/uploads/2021/11/bullseye-upgrade-useradd-681x602.png 681w" sizes="auto, (max-width: 900px) 100vw, 900px"><figcaption class="wp-element-caption">Entdeckt das Upgrade veränderte Konfigurationsdateien, müsst ihr entscheiden, was das System machen soll.</figcaption></figure>



<p>Auf meinen Raspberry Pi 3 mit einer Reihe von Diensten hat das System in etwa zwei Stunden an dem Upgrade gearbeitet &#8212; allerdings war ich zwischendurch immer wieder mal nicht am Platz, das Upgrade hat dadurch immer mal wieder auf meine Eingaben gewartet. Nach der erfolgreichen Installation von Raspberry Pi OS Bullseye meldet das System am Ende den Wunsch nach einem Neustart an. Startet daher den Raspberry mit dem Kommando <code>sudo reboot</code> einmal neu und meldet euch wieder am System an. Als letzten Schritt kontrolliert ihr, ob das System nun wirklich mit Bullseye läuft und entfernt nicht mehr benötigte Pakete aus dem System. Danach ist euer Raspberry Pi auf dem neusten Stand und wieder bereit für seine Aufgaben im Netz.</p>



<pre class="wp-block-code"><code>$ <strong>cat /etc/os-release</strong> 
PRETTY_NAME="Raspbian GNU/Linux 11 (bullseye)"
NAME="Raspbian GNU/Linux"
VERSION_ID="11"
VERSION="11 (bullseye)"
&#91;...]
$ <strong>sudo apt autoremove</strong>
&#91;...]
0 upgraded, 0 newly installed, 40 to remove and 0 not upgraded.
After this operation, 173 MB disk space will be freed.</code></pre>



<p>Kleiner Tipp am Ende: Wie eingangs angesprochen dürfen die aktuell gefertigten Raspberry Pi 4 und Compute Model 4-Platinen (mit der Kennung C0T am Ende der aufgedruckten CPU-Kennzeichnung) nun ganz offiziellem mit einer Taktrate von 1,8 GHz arbeiten. Damit die CPU jedoch überhaupt so hoch taktet, müsst ihr in der Datei <code>/boot/config.txt</code> die Zeile <code>arm_freq=1800</code> eintragen. Ansonsten habt ihr bis zur nächsten großen Änderung am System wieder ein wenig Zeit. Das nächste große Update steht analog zum Release-Zyklus von Debian in etwa zwei Jahren an, die Basis bildet dann Debian 12 &#8222;Bookworm&#8220;.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://linuxundich.de/raspberry-pi/raspberry-pi-os-auf-bullseye-aktualisieren/feed/</wfw:commentRss>
			<slash:comments>4</slash:comments>
		
		
			</item>
		<item>
		<title>Findmnt zeigt eingebundene Laufwerke übersichtlich an</title>
		<link>https://linuxundich.de/gnu-linux/findmnt-zeigt-eingebundene-laufwerke-uebersichtlich-an/</link>
					<comments>https://linuxundich.de/gnu-linux/findmnt-zeigt-eingebundene-laufwerke-uebersichtlich-an/#comments</comments>
		
		<dc:creator><![CDATA[Christoph Langner]]></dc:creator>
		<pubDate>Thu, 15 Dec 2016 08:22:01 +0000</pubDate>
				<category><![CDATA[GNU/Linux]]></category>
		<category><![CDATA[Systemverwaltung]]></category>
		<category><![CDATA[Terminal]]></category>
		<category><![CDATA[Tipps]]></category>
		<guid isPermaLink="false">https://linuxundich.de/?p=40098</guid>

					<description><![CDATA[Oft sind es ja die kleinen Dinge, die einen Unterschied machen. Wie in diesem Beispiel: Ab und an möchte man wissen, ob und wohin das System einen USB-Stick oder eine SD-Karte gemountet hat. Für diese Aufgabe wirft man grafische Tools wie die Laufwerkverwaltung von Gnome an, oder man öffnet ein Terminal, gibt mount ein und schaut sich die Ausgabe [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>Oft sind es ja die kleinen Dinge, die einen Unterschied machen. Wie in diesem Beispiel: Ab und an möchte man wissen, ob und wohin das System einen USB-Stick oder eine SD-Karte gemountet hat. Für diese Aufgabe wirft man grafische Tools wie die Laufwerkverwaltung von Gnome an, oder man öffnet ein Terminal, gibt <code>mount</code> ein und schaut sich die Ausgabe des Programms an. Das Kommando liefert eigentlich sämtliche Informationen, die man für diese Aufgabe benötigt, doch die Ausgabe ist alles andere als übersichtlich. Sämtliche Infos stehen ungegliedert in einer Zeile</p>
<pre>$ <strong>mount</strong>
proc on /proc type proc (rw,nosuid,nodev,noexec,relatime)
sys on /sys type sysfs (rw,nosuid,nodev,noexec,relatime)
dev on /dev type devtmpfs (rw,nosuid,relatime,size=3991400k,nr_inodes=997850,mode=755)
[...]
/dev/sdb1 on /home type ext4 (rw,relatime,data=ordered)
[...]
/etc/autofs/auto.misc on /misc type autofs (rw,relatime,fd=6,pgrp=1207,timeout=300,minproto=5,maxproto=5,indirect)
-hosts on /net type autofs (rw,relatime,fd=12,pgrp=1207,timeout=300,minproto=5,maxproto=5,indirect)
/etc/autofs/auto.nas on /mnt/nas type autofs (rw,relatime,fd=18,pgrp=1207,timeout=60,minproto=5,maxproto=5,indirect)
//192.168.178.79/daten on /mnt/nas/daten type cifs (rw,relatime,vers=1.0,cache=strict,username=me,domain=NAS,uid=1000,forceuid,gid=0,noforcegid,addr=192.168.178.79,unix,posixpaths,serverino,mapposix,acl,rsize=1048576,wsize=1048576,echo_interval=60,actimeo=1)
[...]</pre>
<p>Zur Ausgabe von Laufwerksinformationen bietet sich jedoch als Alternative zu <code>mount</code> das Kommando <code>findmnt</code> an. Es steckt schon seit geraumer Zeit im Paket <em>mount</em> und findet sich in der Regel von Haus aus auf dem System. Allerdings nutzt kaum jemand das kleine Programm, im <a href="https://www.google.de/search?q=findmnt+site%3Aubuntuusers.de&amp;oq=findmnt+site%3Aubuntuusers.de&amp;aqs=chrome..69i57.5527j0j7&amp;sourceid=chrome&amp;ie=UTF-8#safe=off&amp;q=%22findmnt%22+site:ubuntuusers.de" target="_blank" rel="noopener">Forum von ubuntuusers.de</a> wird es beispielsweise nur in ein Dutzend Threads erwähnt. Ohne weitere Optionen gibt <code>findmnt</code> einen Verzeichnisbaum mit der Geräte-ID, dem Dateisystemtyp und dem Mount-Optionen aus. Bei Bedarf kann man die Ausgabe nach Mount-Punkten filtern oder beispielsweise nach Dateisystemarten filtern.</p>
<pre>$ <strong>findmnt</strong>
TARGET                           SOURCE      FSTYPE          OPTIONS
/                                /dev/sda1   ext4            rw,relatime,data=ordered
├─/proc                          proc        proc            rw,nosuid,nodev,noexec,relatime
│ └─/proc/sys/fs/binfmt_misc     systemd-1   autofs          
[...]
├─/tmp                           tmpfs       tmpfs           rw,nosuid,nodev
├─/home                          /dev/sdb1   ext4            rw,relatime,data=ordered
├─/misc                          /etc/autofs/auto.misc
│ autofs          rw,relatime,fd=6,pgrp=1207,timeout=300,minproto=5,maxproto=5,indirect
├─/net                           -hosts      autofs          rw,relatime,fd=12,pgrp=1207,timeout=300,minproto=5,maxproto=5,indirect
└─/mnt/nas               /etc/autofs/auto.nas
  autofs          rw,relatime,fd=18,pgrp=1207,timeout=60,minproto=5,maxproto=5,indirect
  ├─/mnt/nas/daten       //192.168.178.79/daten
  │ cifs            
[...]</pre>
<pre>$ <strong>findmnt /home</strong>
TARGET SOURCE    FSTYPE OPTIONS
/home  /dev/sdb1 ext4   rw,relatime,data=ordered
$ <strong>findmnt -t cifs</strong>
TARGET SOURCE FSTYPE OPTIONS
/mnt/nas/daten //192.168.178.79/daten cifs rw,relatime,vers=1.0,cache=strict,[...],addr=192.168.178.79,un
/mnt/nas/homes //192.168.178.79/homes cifs rw,relatime,vers=1.0,cache=strict,[...],addr=192.168.178.79,un
[...]</pre>
<p>Den Unterschied zwischen den Ausgaben beider Kommandos wird am besten über einen Screenshot verdeutlicht. Während man mit <code>mount</code> am besten gleich nach einem bestimmten Eintrag per <code>mount | grep foo</code> filtert, erhält man mit <code>findmnt</code> einen übersichtlich formatierten Verzeichnisbaum, den man ohne umständliche Pipes sofort im Blick hat. Zusätzlich könnte man mit etwa <code>findmnt --poll --mountpoint /foo/bar</code> gezielt einen Mountpunkt überwachen lassen und in einem Skript Aktionen auslösen.</p>
<p><figure id="attachment_40100" aria-describedby="caption-attachment-40100" style="width: 640px" class="wp-caption aligncenter"><a href="https://linuxundich.de/wp-content/uploads/2016/12/findmnt-vs-mount.png"><img loading="lazy" decoding="async" class="size-medium wp-image-40100" src="https://linuxundich.de/wp-content/uploads/2016/12/findmnt-vs-mount-640x400.png" alt="" width="640" height="400" srcset="https://linuxundich.de/wp-content/uploads/2016/12/findmnt-vs-mount-640x400.png 640w, https://linuxundich.de/wp-content/uploads/2016/12/findmnt-vs-mount-1280x800.png 1280w, https://linuxundich.de/wp-content/uploads/2016/12/findmnt-vs-mount-672x420.png 672w, https://linuxundich.de/wp-content/uploads/2016/12/findmnt-vs-mount-681x426.png 681w, https://linuxundich.de/wp-content/uploads/2016/12/findmnt-vs-mount.png 1440w" sizes="auto, (max-width: 640px) 100vw, 640px"></a><figcaption id="caption-attachment-40100" class="wp-caption-text">Die Ausgabe von findmnt gliedert alle gemounteten Laufwerke übersichtlich auf.</figcaption></figure></p>
]]></content:encoded>
					
					<wfw:commentRss>https://linuxundich.de/gnu-linux/findmnt-zeigt-eingebundene-laufwerke-uebersichtlich-an/feed/</wfw:commentRss>
			<slash:comments>6</slash:comments>
		
		
			</item>
		<item>
		<title>Update-Befehl für Arch: Bis zum 23.04. muss Pacman aktualisiert sein</title>
		<link>https://linuxundich.de/gnu-linux/update-befehl-fuer-arch-bis-zum-23-04-muss-pacman-aktualisiert-sein/</link>
					<comments>https://linuxundich.de/gnu-linux/update-befehl-fuer-arch-bis-zum-23-04-muss-pacman-aktualisiert-sein/#comments</comments>
		
		<dc:creator><![CDATA[Christoph Langner]]></dc:creator>
		<pubDate>Fri, 25 Mar 2016 12:07:43 +0000</pubDate>
				<category><![CDATA[GNU/Linux]]></category>
		<category><![CDATA[Arch]]></category>
		<category><![CDATA[Arch Linux]]></category>
		<category><![CDATA[News]]></category>
		<category><![CDATA[Pacman]]></category>
		<category><![CDATA[Paketverwaltung]]></category>
		<category><![CDATA[Systemverwaltung]]></category>
		<guid isPermaLink="false">https://linuxundich.de/?p=39200</guid>

					<description><![CDATA[Arch ist ja bekanntlich eine Rolling-Release-Distribution: Anders wie beispielsweise bei Debian, Fedora oder Ubuntu und Co. gibt es daher keine einzelnen Versionen, die Paketquellen werden stattdessen ständig mit neuen Versionen bestehender Programme oder kompletten Neuerscheinungen befüllt. Die Updates durchzuführen ist nun aber keine Pflicht. Es gibt durchaus einige Arch-User, die ihr System nur selten aktualisieren. Es [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>Arch ist ja bekanntlich eine Rolling-Release-Distribution: Anders wie beispielsweise bei Debian, Fedora oder Ubuntu und Co. gibt es daher keine einzelnen Versionen, die Paketquellen werden stattdessen ständig mit neuen Versionen bestehender Programme oder kompletten Neuerscheinungen befüllt. Die Updates durchzuführen ist nun aber keine Pflicht. Es gibt durchaus einige Arch-User, die ihr System nur selten aktualisieren. Es gibt aber hin und wieder Änderungen, die das Einspielen der Updates zur Pflicht machen. Eine von diesen steht Ende April an.<br>
<span id="more-39200"></span></p>
<p><figure id="attachment_39206" aria-describedby="caption-attachment-39206" style="width: 640px" class="wp-caption aligncenter"><a href="https://linuxundich.de/wp-content/uploads/2016/03/pacman-5.png" rel="attachment wp-att-39206"><img loading="lazy" decoding="async" class="size-medium wp-image-39206" src="https://linuxundich.de/wp-content/uploads/2016/03/pacman-5-640x431.png" alt="Arch-User müssen das Update auf Pacman 4 bis zum 23. April durchgeführt haben." width="640" height="431" srcset="https://linuxundich.de/wp-content/uploads/2016/03/pacman-5-640x431.png 640w, https://linuxundich.de/wp-content/uploads/2016/03/pacman-5-624x420.png 624w, https://linuxundich.de/wp-content/uploads/2016/03/pacman-5-681x458.png 681w, https://linuxundich.de/wp-content/uploads/2016/03/pacman-5.png 764w" sizes="auto, (max-width: 640px) 100vw, 640px"></a><figcaption id="caption-attachment-39206" class="wp-caption-text">Arch-User müssen das Update auf Pacman 4 bis zum 23. April durchgeführt haben.</figcaption></figure></p>
<p>Mit Pacman 5.0 wurde dem Paketmanager von Arch die Fähigkeit beigebracht Aktionen per Hooks auszuführen. Das bedeutet für Arch, dass beispielsweise bei der Installation von mehreren Fonts nicht x mal der Font-Cache generiert wird, sondern nur einmal am Ende der Installation. Ein anderer Anwendungsfall wäre etwa das Bauen von Kernelmodulen, das dann eben auch nur einmal angestoßen werden muss. Dies beschleunigt die Arbeit mit Pacman zum Teil erheblich. Diese Änderung <a href="https://bbs.archlinux.de/viewtopic.php?id=29040" target="_blank" rel="noopener">bedingt nun aber</a>, dass ihr euer Arch-System bis zum 23.04.2016 auf einen aktuellen Stand gebracht haben müsst.</p>
<blockquote class="td_quote_box td_box_center"><p>The release of pacman-5.0 brought support for transactional hooks. These will allow us to (e.g.) run font cache updates a single time during an update rather than after each font package installation. This will both speed up the update process, but also reduce packaging burden for the Developers and Trusted Users. <strong>In order for the use of hooks to be started, we require all users to have updated to at least pacman-5.0.1 before 2016-04-23.</strong> Pacman-5.0.1 was released on 2016-02-23, so this will have given everyone two months to update their system.</p></blockquote>
<p>Somit hat jeder Arch-User über zwei Monate Zeit gehabt seine Systeme zu aktualisieren. Wer nach diesem Tag noch Pacman mit einer Versionsnummer kleiner als 5.0.1 auf seinem Rechner hat, kann eventuell keine Pakete mehr installieren und demzufolge auch sein System nicht mehr aktualisieren. Solltet ihr Fragen zu dem Thema haben, könnt ihr euch beispielsweise an das deutschsprachige Arch-Forum wenden, dort gibt es <a href="https://www.archlinux.org/news/required-update-to-pacman-501-before-2016-04-23/" target="_blank" rel="noopener">einen entsprechenden Thread</a>. Die Thematik gilt ebenso für Arch-Derivate wie Antergos, die direkt auf den Paketquellen von Arch Linux aufsetzen. Das beliebte Manjaro hingegen nutzt seine eigenen Quellen, allerdings wird das Pacman-Update vermutlich auch dort irgendwann zur Pflicht.</p>
<pre>### Welche Pacman-Version ist auf dem Rechner installiert?
$ pacman -Qi pacman
Name : pacman
Version : 5.0.1-2
Beschreibung : A library-based package manager with dependency
support
Architektur : x86_64
$ pacman --version

 .--.                  Pacman v5.0.1 - libalpm v10.0.1
/ _.-' .-.  .-.  .-.   Copyright (C) 2006-2016 Pacman Development Team
\  '-. '-'  '-'  '-'   Copyright (C) 2002-2006 Judd Vinet
 '--'
                       Dieses Programm darf unter Bedingungen der GNU
                       General Public License frei weiterverbreitet werden
[...]</pre>
<p>Die meisten Arch-User werden auf einem regelmäßig genutzten System die anlaufenden Updates sowieso mehr oder weniger regelmäßig einspielen und so nicht in die Verlegenheit kommen das Zeitfenster für das Pacman-Update zu verpassen. Es gibt allerdings auch viele User, die Arch auf einem kleiner Server oder etwa einem Raspberry Pi einsetzen, der irgendwo gut versteckt seine Arbeit still und heimlich verrichtet. Vergesst nicht diese Systeme mit dem Update zu versorgen.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://linuxundich.de/gnu-linux/update-befehl-fuer-arch-bis-zum-23-04-muss-pacman-aktualisiert-sein/feed/</wfw:commentRss>
			<slash:comments>1</slash:comments>
		
		
			</item>
		<item>
		<title>Arch Linux aus Ubuntu oder anderen Live-Linuxen retten</title>
		<link>https://linuxundich.de/gnu-linux/arch-linux-aus-ubuntu-oder-anderen-live-linuxen-retten/</link>
					<comments>https://linuxundich.de/gnu-linux/arch-linux-aus-ubuntu-oder-anderen-live-linuxen-retten/#comments</comments>
		
		<dc:creator><![CDATA[Christoph Langner]]></dc:creator>
		<pubDate>Wed, 01 Apr 2015 09:31:16 +0000</pubDate>
				<category><![CDATA[GNU/Linux]]></category>
		<category><![CDATA[Arch Linux]]></category>
		<category><![CDATA[Einsteiger]]></category>
		<category><![CDATA[Selbsthilfe]]></category>
		<category><![CDATA[Systemverwaltung]]></category>
		<category><![CDATA[Tutorial]]></category>
		<guid isPermaLink="false">http://linuxundich.de/?p=28629</guid>

					<description><![CDATA[Nachdem vor bald zwei Jahren mein Weg zu Arch Linux&#160;begonnen hat, läuft auf allen meinen Rechnern inzwischen nur noch Arch. Kein Arch-Derivat wie Manjaro oder Antergos, sondern überall nur Arch pur. So kann ich mein Systeme von Anfang an genau so aufbauen, wie ich es haben möchte.&#160;Das macht das Aufsetzen eines Systems&#160;ein wenig aufwändiger, doch [&#8230;]]]></description>
										<content:encoded><![CDATA[
<p>Nachdem vor bald zwei Jahren <a href="http://linuxundich.de/tag/mein-weg-zu-arch/">mein Weg zu Arch Linux</a>&nbsp;begonnen hat, läuft auf allen meinen Rechnern inzwischen nur noch Arch. Kein Arch-Derivat wie Manjaro oder Antergos, sondern überall nur Arch pur. So kann ich mein Systeme von Anfang an genau so aufbauen, wie ich es haben möchte.&nbsp;Das macht das Aufsetzen eines Systems&nbsp;ein wenig aufwändiger, doch ich habe noch kein einziges Arch-System noch einmal neu aufsetzen müssen. Somit&nbsp;hält sich der zusätzliche Aufwand durch die rein textbasierte Installation in Grenzen.</p>



<p>Bei all der Freude über ein fortwährend aktuelles System gibt es ab und an kleine Unstimmigkeiten bei der Installation von Software-Updates. Es kann schon mal passieren, dass eine neue Versionen einen Bug mitbringt. Da Arch aber eng am Upstream sitzt, ist dieser meist auch schnell wieder behoben. Die größten Pannen entstehen jedoch nicht durch die Systemupdates:&nbsp;Der größte anzunehmende Fehler sitzt in der Regel&nbsp;vor dem Bildschirm. So&nbsp;fiel bei mir während schon einmal während eines Pacman-Updates der Strom aus oder ich habe die Konfiguration des Bootmanagers verbastelt.</p>



<span id="more-28629"></span>



<p class="has-pale-cyan-blue-background-color has-background"><strong>HINWEIS:</strong> Das hier geschilderte Vorgehen funktioniert selbstverständlich auch bei anderen Linux-Distributionen wie auch mit anderen Live-Linuxen. Im Endeffekt geht es immer darum das eigentlich installierte System in einem Live-Linux per Chroot einzubinden, um in diesem mit dem eigentlich installierten arbeiten zu können, ohne es booten zu müssen.</p>



<p>Das Ergebnis ist am Ende meist das selbe: Wenn man sehr sehr viel Pech hat, dann lässt sich Arch nicht mehr booten. Aus diesem Grunde habe ich bei mir auch immer einen USB-Stick mit einem Ubuntu-System liegen. Von diesem Notfall-System aus lässt sich Arch in der Regel wiederbeleben &#8212; egal was zuvor passiert ist. Hat man nur eine Konfigurationsdatei wie die <code>/etc/fstab</code> oder die&nbsp;<code>/boot/syslinux/syslinux.cfg</code> verbastelt, dann kann man diese ja leicht von der Live-CD aus bearbeiten. Hängt allerdings das System, weil zum Beispiel Pacman jäh unterbrochen wurde, dann braucht es ein anderes Kaliber: Ein Chroot in die nicht mehr bootende Arch-Installation.</p>



<h2 class="wp-block-heading">Arch-Chroot aus Ubuntu</h2>



<p>Damit das klappt, müsst ihr euren Rechner von einer Linux-Live-DVD oder einem USB-Stick mit Linux booten. Für meine Zwecke reicht ein USB-Stick mit Ubuntu 14.04 und persistenter Partition aus, so muss ich nicht immer wieder die Spracheinstellungen korrigieren oder den WLAN-Zugang neu einrichten. Ist das Live-System geladen, öffnet ihr als erstes ein Terminal und schaut euch an, welche Device-IDs die in eurem System verbauten Festplatten und Partitionen bekommen haben. Am einfachsten klappt dies in meinem Augen immer mit dem Befehl <code>lsblk</code>.</p>



<pre class="wp-block-code"><code>$ <strong>lsblk</strong>
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 232,9G 0 disk
├─sda1 8:1 0 26G 0 part
├─sda2 8:2 0 202,9G 0 part
└─sda3 8:3 0 4G 0 part &#91;SWAP]
sde 8:64 1 1000M 0 disk
├─sde1 8:65 1 964M 0 part
└─sde2 8:66 1 2,3M 0 part
loop0 7:0 0 922M 1 loop /rofs</code></pre>



<p>In meinem Fall sitzt das ganze System auf einer 256&nbsp;GByte großen SSD, also ist <code>/dev/sda</code> das richtige Gerät. Nun weiß ich, dass bei meinem Rechner auf <code>/dev/sda1</code> das System, auf <code>/dev/sda3</code> die Homeverzeichnisse und auf <code>/dev/sda4</code> das Boot-Verzeichnis liegt; kennt ihr euch auf eurem System nicht so gut aus und lässt sich auch aus der Partitionsgröße nicht auf die Zugehörigkeit schließend, dann könnt ihr aus dem Dateimanager heraus die Partitionen kurz einbinden und so direkt nachsehen, welche Daten wo liegen.</p>


<div class="wp-block-image">
<figure class="aligncenter"><a href="https://linuxundich.de/wp-content/uploads/2015/04/lsblk-arch.png"><img loading="lazy" decoding="async" width="640" height="423" src="https://linuxundich.de/wp-content/uploads/2015/04/lsblk-arch-640x423.png" alt="Lsblk gibt die Device-ID der im Rechner gefundenen Laufwerke übersichtlich aus." class="wp-image-28652" srcset="https://linuxundich.de/wp-content/uploads/2015/04/lsblk-arch-640x423.png 640w, https://linuxundich.de/wp-content/uploads/2015/04/lsblk-arch-636x420.png 636w, https://linuxundich.de/wp-content/uploads/2015/04/lsblk-arch-681x450.png 681w, https://linuxundich.de/wp-content/uploads/2015/04/lsblk-arch-250x165.png 250w, https://linuxundich.de/wp-content/uploads/2015/04/lsblk-arch-550x363.png 550w, https://linuxundich.de/wp-content/uploads/2015/04/lsblk-arch-273x180.png 273w, https://linuxundich.de/wp-content/uploads/2015/04/lsblk-arch-454x300.png 454w, https://linuxundich.de/wp-content/uploads/2015/04/lsblk-arch.png 754w" sizes="auto, (max-width: 640px) 100vw, 640px"></a><figcaption class="wp-element-caption">Lsblk gibt die Device-ID der im Rechner gefundenen Laufwerke übersichtlich aus.</figcaption></figure>
</div>

<div class="wp-block-image">
<figure class="aligncenter"><a href="https://linuxundich.de/wp-content/uploads/2015/04/nautilus-mounts.png"><img loading="lazy" decoding="async" width="640" height="423" src="https://linuxundich.de/wp-content/uploads/2015/04/nautilus-mounts-640x423.png" alt="Im Dateimanager könnt ihr überprüfen welche Daten auf welcher Partition zu finden sind." class="wp-image-28653" srcset="https://linuxundich.de/wp-content/uploads/2015/04/nautilus-mounts-640x423.png 640w, https://linuxundich.de/wp-content/uploads/2015/04/nautilus-mounts-636x420.png 636w, https://linuxundich.de/wp-content/uploads/2015/04/nautilus-mounts-681x450.png 681w, https://linuxundich.de/wp-content/uploads/2015/04/nautilus-mounts-250x165.png 250w, https://linuxundich.de/wp-content/uploads/2015/04/nautilus-mounts-550x363.png 550w, https://linuxundich.de/wp-content/uploads/2015/04/nautilus-mounts-273x180.png 273w, https://linuxundich.de/wp-content/uploads/2015/04/nautilus-mounts-454x300.png 454w, https://linuxundich.de/wp-content/uploads/2015/04/nautilus-mounts.png 754w" sizes="auto, (max-width: 640px) 100vw, 640px"></a><figcaption class="wp-element-caption">Im Dateimanager könnt ihr überprüfen welche Daten auf welcher Partition zu finden sind.</figcaption></figure>
</div>


<p>Ist die Frage geklärt, holt ihr euch mit <code>sudo -s</code> Root-Rechte und erzeugt einen Mount-Punkt für euer Arch-System im aktuellen Live-Linux; für mein Beispiel nutze ich einfach <code>/arch</code>. In dieses mountet ihr zuerst die Systempartition, dann die Homepartition nach <code>/arch/home</code> und schließlich &#8212; natürlich nur wenn <code>/boot</code> auch auf einer eigenen Partition liegt &#8212; die Bootpartition eures Arch-Systems.</p>



<pre class="wp-block-code"><code>$ <strong>sudo -s</strong>
$ <strong>mkdir /arch</strong>
$ <strong>mount /dev/sda1 /arch</strong>
$ <strong>mount /dev/sda2 /arch/home</strong>
### Falls ihr weitere Partitionen nutzt...
$ <strong>mount /dev/sda4 /arch/boot</strong></code></pre>



<p>Damit das Chroot später komplett funktioniert, müsst ihr nun noch Symlinks zu dynamischen Verzeichnissen des Live-Systems wie <code>/proc</code> oder <code>/dev</code> in den zukünftigen Chroot-Bereich legen. Alleine mit diesen Symlinks würde allerdings der Netzwerkzugang inklusive Namensauflösung noch nicht korrekt funktioniern, holt euch daher noch die <code>resolv.conf</code> des Live-Linux in das Chroot rüber. Ist das alles geschehen, öffnet ihr schließlich mit dem Chroot-Befehl euer Arch-Linux &#8212; ohne es vorher Booten zu müssen.</p>



<pre class="wp-block-code"><code>$ <strong>mount -t proc none /arch/proc</strong>
$ <strong>mount -t sysfs none /arch/sys</strong>
$ <strong>mount -o bind /dev /arch/dev</strong>
$ <strong>mount -o bind /dev/pts /arch/dev/pts</strong> # Wichtig für Pacman
$ <strong>cp -L /etc/resolv.conf /arch/etc</strong> # Für Netzwerkzugriff
$ <strong>chroot /arch bash</strong></code></pre>



<p>Im Chroot arbeitet ihr nun mit sämtlichen Daten eures Arch-System, die Wurzel des Verzeichnisbaums beginnt wie gewohnt bei <code>/</code> und nicht mehr mit dem zuvor erstellten Mountpunkt. Zum Bearbeiten der <code>fstab</code> wechselt ihr also einfach nur nach <code>/etc</code> und öffnet dort die Fstab-Datei mit einem Editor wie zum Beispiel Nano: <code>nano /etc/fstab</code>. Ihr braucht sogar auf Programme mit einer graphischen Oberfläche nicht verzichten, dazu müsst ihr lediglich den Xserver des Ubuntu-Systems mit <code>xhost +</code> für Zugriffe von außen öffnen.</p>


<div class="wp-block-image">
<figure class="aligncenter"><a href="https://linuxundich.de/wp-content/uploads/2015/04/pacman-unter-ubuntu.png"><img loading="lazy" decoding="async" width="640" height="423" src="https://linuxundich.de/wp-content/uploads/2015/04/pacman-unter-ubuntu-640x423.png" alt="Mithilfe des Chroot lässt sich von Ubuntu aus direkt in Arch arbeiten." class="wp-image-28654" srcset="https://linuxundich.de/wp-content/uploads/2015/04/pacman-unter-ubuntu-640x423.png 640w, https://linuxundich.de/wp-content/uploads/2015/04/pacman-unter-ubuntu-636x420.png 636w, https://linuxundich.de/wp-content/uploads/2015/04/pacman-unter-ubuntu-681x450.png 681w, https://linuxundich.de/wp-content/uploads/2015/04/pacman-unter-ubuntu-250x165.png 250w, https://linuxundich.de/wp-content/uploads/2015/04/pacman-unter-ubuntu-550x363.png 550w, https://linuxundich.de/wp-content/uploads/2015/04/pacman-unter-ubuntu-273x180.png 273w, https://linuxundich.de/wp-content/uploads/2015/04/pacman-unter-ubuntu-454x300.png 454w, https://linuxundich.de/wp-content/uploads/2015/04/pacman-unter-ubuntu.png 754w" sizes="auto, (max-width: 640px) 100vw, 640px"></a><figcaption class="wp-element-caption">Mithilfe des Chroot lässt sich von Ubuntu aus direkt in Arch arbeiten.</figcaption></figure>
</div>

<div class="wp-block-image">
<figure class="aligncenter"><a href="https://linuxundich.de/wp-content/uploads/2015/04/gedit-chroot-arch.png"><img loading="lazy" decoding="async" width="640" height="434" src="https://linuxundich.de/wp-content/uploads/2015/04/gedit-chroot-arch-640x434.png" alt="Erlaubt man den Zugriff auf den Xserver des Ubuntu-Systems lassen sich auch Programme mit GUI starten." class="wp-image-28656" srcset="https://linuxundich.de/wp-content/uploads/2015/04/gedit-chroot-arch-640x434.png 640w, https://linuxundich.de/wp-content/uploads/2015/04/gedit-chroot-arch-620x420.png 620w, https://linuxundich.de/wp-content/uploads/2015/04/gedit-chroot-arch-681x461.png 681w, https://linuxundich.de/wp-content/uploads/2015/04/gedit-chroot-arch-250x169.png 250w, https://linuxundich.de/wp-content/uploads/2015/04/gedit-chroot-arch-550x373.png 550w, https://linuxundich.de/wp-content/uploads/2015/04/gedit-chroot-arch-800x542.png 800w, https://linuxundich.de/wp-content/uploads/2015/04/gedit-chroot-arch-266x180.png 266w, https://linuxundich.de/wp-content/uploads/2015/04/gedit-chroot-arch-443x300.png 443w, https://linuxundich.de/wp-content/uploads/2015/04/gedit-chroot-arch-738x500.png 738w, https://linuxundich.de/wp-content/uploads/2015/04/gedit-chroot-arch.png 1197w" sizes="auto, (max-width: 640px) 100vw, 640px"></a><figcaption class="wp-element-caption">Erlaubt man den Zugriff auf den Xserver des Ubuntu-Systems lassen sich auch Programme mit GUI starten.</figcaption></figure>
</div>


<p>Befehle wie <code>pacman -Syu</code> zum Einspielen von Updates oder etwa <code>syslinux-install_update -i -a -m</code> für die Neu-Installation des Syslinux-Bootloaders lassen sich direkt aus dem Chroot ausführen, als ob ihr aus eurem Arch-System heraus arbeiten würdet. Mit ein bisschen Ellbogenschmalz und Geschick beim Googeln nach Fehlermeldungen bekommt man sein Arch danach in der Regel wieder recht schnell flott, sodass man wieder ganz normal von der Festplatte oder der SSD booten kann.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://linuxundich.de/gnu-linux/arch-linux-aus-ubuntu-oder-anderen-live-linuxen-retten/feed/</wfw:commentRss>
			<slash:comments>8</slash:comments>
		
		
			</item>
		<item>
		<title>Linktipp: Der Crontab-Generator hilft beim Erstellen von Cronjobs</title>
		<link>https://linuxundich.de/gnu-linux/der-crontab-generator-hilft-beim-erstellen-von-cronjobs/</link>
					<comments>https://linuxundich.de/gnu-linux/der-crontab-generator-hilft-beim-erstellen-von-cronjobs/#comments</comments>
		
		<dc:creator><![CDATA[Christoph Langner]]></dc:creator>
		<pubDate>Fri, 16 May 2014 13:45:33 +0000</pubDate>
				<category><![CDATA[GNU/Linux]]></category>
		<category><![CDATA[Administration]]></category>
		<category><![CDATA[Cron]]></category>
		<category><![CDATA[Links]]></category>
		<category><![CDATA[Systemverwaltung]]></category>
		<guid isPermaLink="false">http://linuxundich.de/?p=24727</guid>

					<description><![CDATA[Egal ob man mit crontab -e eine Crontabelle für den eigenen User anlegt, mit sudo crontab -e eine systemweite Crontabelle generiert, gleich die /etc/crontab bearbeitet oder in /etc/cron.d einen programmspetifischen Cronjob ablegt. Es gilt immer dem Cronjob zu sagen was er wann ausführen soll, dazu gibt es die ominösen ersten fünf Angaben in der Cronjob-Zeile. 17 * [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>Egal ob man mit <code>crontab -e</code> eine Crontabelle für den eigenen User anlegt, mit <code>sudo crontab -e</code> eine systemweite Crontabelle generiert, gleich die <code>/etc/crontab</code> bearbeitet oder in <code>/etc/cron.d</code> einen programmspetifischen Cronjob ablegt. Es gilt immer dem Cronjob zu sagen was er wann ausführen soll, dazu gibt es die ominösen ersten fünf Angaben in der Cronjob-Zeile.</p>
<pre>17  *   * * *   root      run-parts --report /etc/cron.hourly
59 23   * * *   username  /pfad/zu/skript.sh
*/5 *   * * *   username  ping -c 1 www.google.de &gt; /dev/null 2&gt;&amp;1</pre>
<p>Die Syntax für einfache Aufgaben zu lernen ist nicht sonderlich schwer, meist reicht <a href="http://wiki.ubuntuusers.de/Cron#Cronjobs-manuell-einrichten" target="_blank" rel="noopener">ein Blick ins Wiki</a>. Doch was muss man denn jetzt als Cronjob angeben, wenn jede ungerade Minute, zu jeder geraden Stunde, zweimal im Monat, aber bitte nur an ungerade Monaten, aber dann auch nur an Wochentagen das Kommando foobar ausgeführt werden soll? Dafür müssen wohl auch erfahrene Sysadmins ein paar Minuten grübeln.</p>
<pre>1-59/2 */2 */15 1-11/2 0,6 foobar &gt;/dev/null 2&gt;&amp;1</pre>
<p>Ganz so einfach lässt sich die Logik nicht zusammenstellen, aber per Mausklick ist das schnell gemacht, man muss nur wissen wo! Mit dem <a href="http://www.crontab-generator.org" target="_blank" rel="noopener">Crontab-Generator</a> lassen sich Cronjobs Schritt für Schritt mit der Maus zusammenbauen, so dass man am Ende nur noch die Cronjob-Zeile in die Crontab des betroffenen Systems übernehmen muss. Der Generator beachtet dabei auch die Ausgaben, man kann sie verwerfen, in eine Datei schreiben oder per Mail verschicken. Damit dürften die meisten Anwendungsfälle wohl abgedeckt sein.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://linuxundich.de/gnu-linux/der-crontab-generator-hilft-beim-erstellen-von-cronjobs/feed/</wfw:commentRss>
			<slash:comments>1</slash:comments>
		
		
			</item>
		<item>
		<title>Dropbox-Paketquelle hat eine neue URL</title>
		<link>https://linuxundich.de/gnu-linux/dropbox-paketquelle-hat-eine-neue-url/</link>
					<comments>https://linuxundich.de/gnu-linux/dropbox-paketquelle-hat-eine-neue-url/#comments</comments>
		
		<dc:creator><![CDATA[Christoph Langner]]></dc:creator>
		<pubDate>Mon, 14 Dec 2009 23:46:36 +0000</pubDate>
				<category><![CDATA[GNU/Linux]]></category>
		<category><![CDATA[Dropbox]]></category>
		<category><![CDATA[Paketverwaltung]]></category>
		<category><![CDATA[Systemverwaltung]]></category>
		<guid isPermaLink="false">http://linuxundich.de/de/?p=5397</guid>

					<description><![CDATA[Still und leise hat sich Dropbox die URL dropbox.com gesichert. Der Umstieg von getdropox.com zu dropbox.com funktioniert dank Weiterleitungen auf den Webservern von Dropbox nahtlos, doch die alten Paketquellen streiken. Probiert man aktuell Dropbox aus den &#8222;alten&#8220; Quellen&#8230; # Dropbox deb http://linux.getdropbox.com/ubuntu karmic main deb-src http://linux.getdropbox.com/ubuntu karmic main &#8230;neu zu installieren, dann erhält man eine [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>Still und leise hat sich Dropbox die URL <a href="http://dropbox.com" target="_blank" rel="noopener">dropbox.com</a> gesichert. Der Umstieg von getdropox.com zu dropbox.com funktioniert dank Weiterleitungen auf den Webservern von Dropbox nahtlos, doch die alten Paketquellen streiken. Probiert man aktuell Dropbox aus den &#8222;alten&#8220; Quellen&#8230;</p>
<p><span id="more-5397"></span></p>
<pre lang="ini"># Dropbox
deb http://linux.getdropbox.com/ubuntu karmic main   
deb-src http://linux.getdropbox.com/ubuntu karmic main   
</pre>
<p>&#8230;neu zu installieren, dann erhält man eine Fehlermeldung&#8230;</p>
<pre>$ sudo apt-get install --reinstall nautilus-dropbox 
Paketlisten werden gelesen... Fertig
Abhängigkeitsbaum wird aufgebaut       
Lese Status-Informationen ein... Fertig
Erneute Installation von nautilus-dropbox ist nicht möglich,
es kann nicht heruntergeladen werden.
0 aktualisiert, 0 neu installiert, 0 zu entfernen und 0 nicht aktualisiert.
</pre>
<p>Schaut also in eure <code>/etc/apt/sources.list</code> und passt die URL an. Anstatt getdropbox.com müsst ihr dropbox.com eintragen&#8230;</p>
<pre lang="ini"># Dropbox
deb http://linux.dropbox.com/ubuntu karmic main   
deb-src http://linux.dropbox.com/ubuntu karmic main   
</pre>
<p>&#8230;nur so kommt ihr an Updates wenn Dropbox nautilus-dropbox aktualisiert. Bitte vergesst nicht die Zeilen an die von Euch genutzte Ubuntu-Version anzupassen.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://linuxundich.de/gnu-linux/dropbox-paketquelle-hat-eine-neue-url/feed/</wfw:commentRss>
			<slash:comments>5</slash:comments>
		
		
			</item>
		<item>
		<title>Alte Linux-Kernel unter Debian oder Ubuntu mit nur einem Befehl deinstallieren</title>
		<link>https://linuxundich.de/gnu-linux/alte-linux-kernel-inkl-header-mit-nur-einem-befehl-entfernen/</link>
					<comments>https://linuxundich.de/gnu-linux/alte-linux-kernel-inkl-header-mit-nur-einem-befehl-entfernen/#comments</comments>
		
		<dc:creator><![CDATA[Christoph Langner]]></dc:creator>
		<pubDate>Sat, 12 Dec 2009 19:14:35 +0000</pubDate>
				<category><![CDATA[GNU/Linux]]></category>
		<category><![CDATA[Aufräumen]]></category>
		<category><![CDATA[Debian]]></category>
		<category><![CDATA[Kernel]]></category>
		<category><![CDATA[Paketverwaltung]]></category>
		<category><![CDATA[Systemverwaltung]]></category>
		<category><![CDATA[Tipps]]></category>
		<category><![CDATA[Ubuntu]]></category>
		<guid isPermaLink="false">http://linuxundich.de/de/?p=5359</guid>

					<description><![CDATA[Betreibt man ein Ubuntu- oder Debian-System über einen längeren Zeitraum, so sammeln sich über Monate und Jahre, die das System im Normalfall ohne Probleme läuft, eine ganze Reihe von Linux-Kernel an. Bei Sicherheitsupdates oder auch Upgrades auf ein neueres Ubuntu oder Debian werden die alten Kernel nicht deinstalliert. So hat man bei Problemen mit dem [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>Betreibt man ein Ubuntu- oder Debian-System über einen längeren Zeitraum, so sammeln sich über Monate und Jahre, die das System im Normalfall ohne Probleme läuft, eine ganze Reihe von Linux-Kernel an. Bei Sicherheitsupdates oder auch Upgrades auf ein neueres Ubuntu oder Debian werden die alten Kernel nicht deinstalliert. So hat man bei Problemen mit dem neuen Kernel, den &#8222;Alten&#8220; noch zur Verfügung und kann so das System booten. Allerdings belegen der Linux-Kernel mit seinen Headern eine ganze Menge Platz, so dass man früher oder später etwas aufräumen sollte. Das geht entweder von Hand, oder besser mit einem &#8222;simplen&#8220; Befehl, der das alte Zeug in einem Rutsch von der Platte wirft.</p>
<p><span id="more-5359"></span></p>
<p>Über Synaptic kann man sich die alten Kernel in einer graphischen Umgebung raussuchen und sie dann deinstallieren. Doch dazu müsste man sich nach und nach allen alten Ballast raussuchen und von Hand zur Deinstallation vormerken. Das ist umständlich und dauert durchaus ein kleines Weilchen, erst recht wenn sich im Ubuntu-System nach einer ganzen Weile eine Menge Kernel angesammelt haben. Mit ein bisschen Shell-Magie deinstalliert man jedoch mit nur einem Kommando alle alten Linux-Kernel inklusive ihren Headern. Via&#8230;</p>
<p><figure id="attachment_28396" aria-describedby="caption-attachment-28396" style="width: 640px" class="wp-caption aligncenter"><a href="https://linuxundich.de/wp-content/uploads/2009/12/ubuntu-kernel.png"><img loading="lazy" decoding="async" class="td-modal-image wp-image-28396 size-medium" src="https://linuxundich.de/wp-content/uploads/2009/12/ubuntu-kernel-640x571.png" alt="Im Laufe der Zeit sammeln sich auf einem Ubuntu-System zahlreiche Kernel an." width="640" height="571" srcset="https://linuxundich.de/wp-content/uploads/2009/12/ubuntu-kernel-640x571.png 640w, https://linuxundich.de/wp-content/uploads/2009/12/ubuntu-kernel-471x420.png 471w, https://linuxundich.de/wp-content/uploads/2009/12/ubuntu-kernel-250x223.png 250w, https://linuxundich.de/wp-content/uploads/2009/12/ubuntu-kernel-550x491.png 550w, https://linuxundich.de/wp-content/uploads/2009/12/ubuntu-kernel-202x180.png 202w, https://linuxundich.de/wp-content/uploads/2009/12/ubuntu-kernel-336x300.png 336w, https://linuxundich.de/wp-content/uploads/2009/12/ubuntu-kernel-560x500.png 560w, https://linuxundich.de/wp-content/uploads/2009/12/ubuntu-kernel.png 642w" sizes="auto, (max-width: 640px) 100vw, 640px"></a><figcaption id="caption-attachment-28396" class="wp-caption-text">Im Laufe der Zeit sammeln sich auf einem Ubuntu-System zahlreiche Kernel an.</figcaption></figure></p>
<p>&#8230;löscht ihr alle alten Kernel inklusive den jeweils zusätzlich installierten Kernel-Headern von der Festplatte. Der aktuelle Kernel des Systems bleibt dabei komplett unangetastet. Ihr müsst also keine Angst haben, dass ihr nach dem Ausführen des Befehls gleich ganz ohne Kernel dasteht und euren Computer nicht mehr booten könnt. Trotzdem solltet ihr einen kritischen Blick auf die Liste der zu deinstallierenden Pakete werfen, nicht dass aus irgendeinem Grund eine Abhängigkeit quer schießt und das halbe System von der Platte fliegt.</p>
<pre>$ dpkg -l 'linux-*' | sed '/^ii/!d;/'"$(uname -r | sed "s/\(.*\)-\([^0-9]\+\)/\1/")"'/d;s/^[^ ]* [^ ]* \([^ ]*\).*/\1/;/[0-9]/!d' | xargs sudo apt-get -y purge</pre>
<pre>Paketlisten werden gelesen... Fertig
Abhängigkeitsbaum wird aufgebaut
Lese Status-Informationen ein... Fertig
Die folgenden Pakete werden ENTFERNT:
linux-headers-2.6.31-13* linux-headers-2.6.31-13-generic*
linux-headers-2.6.31-14* linux-headers-2.6.31-14-generic*
linux-image-2.6.27-14-generic* linux-image-2.6.31-13-generic*
linux-image-2.6.31-14-generic* linux-restricted-modules-2.6.27-14-generic*
0 aktualisiert, 0 neu installiert, 8 zu entfernen und 10 nicht aktualisiert.
Nach dieser Operation werden 441MB Plattenplatz freigegeben.
Möchten Sie fortfahren [J/n]?</pre>
<p>Allerdings würde ich generell ältere Kernel erst dann von der Festplatte löschen, wenn ich weiß dass ich mit dem aktuellen Linux-Kernel definitiv keine Probleme habe. Lasst nach einem Kernelupdate den alten Kernel daher also noch ein paar Tage oder gar ein paar Wochen auf eurem Rechner. Die dadurch verbrauchten MByte lassen sich meist verschmerzen. Das Aufräumen könnt ihr ja immer noch nachholen, mehr als einen Befehl braucht es dazu ja nicht.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://linuxundich.de/gnu-linux/alte-linux-kernel-inkl-header-mit-nur-einem-befehl-entfernen/feed/</wfw:commentRss>
			<slash:comments>78</slash:comments>
		
		
			</item>
		<item>
		<title>PPAs inklusive der aus ihnen installierten Pakete entfernen</title>
		<link>https://linuxundich.de/gnu-linux/ppa-inklusive-der-aus-ihnen-installierten-pakete-entfernen/</link>
					<comments>https://linuxundich.de/gnu-linux/ppa-inklusive-der-aus-ihnen-installierten-pakete-entfernen/#comments</comments>
		
		<dc:creator><![CDATA[Christoph Langner]]></dc:creator>
		<pubDate>Sat, 12 Dec 2009 18:44:25 +0000</pubDate>
				<category><![CDATA[GNU/Linux]]></category>
		<category><![CDATA[APT]]></category>
		<category><![CDATA[Karmic]]></category>
		<category><![CDATA[Lucis]]></category>
		<category><![CDATA[Paketverwaltung]]></category>
		<category><![CDATA[PPA]]></category>
		<category><![CDATA[Systemverwaltung]]></category>
		<category><![CDATA[Ubuntu]]></category>
		<guid isPermaLink="false">http://linuxundich.de/de/?p=5338</guid>

					<description><![CDATA[Fremde Paketquellen, im Falle von Ubuntu meist Personal Package Archives (kurz PPA), sind eine beliebte Methode um brandaktuelle Software zu installieren. Doch was macht man, wenn sich die niegelnagelneue Version doch nicht als ideal herausstellt? Wenn die so installieren Programme Fehler enthalten oder das System instabil wird? Über Synaptic kann man via &#8222;Paket -&#62; Version [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>Fremde Paketquellen, im Falle von Ubuntu meist Personal Package Archives (kurz PPA), sind eine beliebte Methode um brandaktuelle Software zu installieren. Doch was macht man, wenn sich die niegelnagelneue Version doch nicht als ideal herausstellt? Wenn die so installieren Programme Fehler enthalten oder das System instabil wird?</p>
<p><span id="more-5338"></span></p>
<p>Über Synaptic kann man via <em>&#8222;Paket -&gt; Version erzwingen&#8220;</em> die Rückkehr zu einer älteren Version des Pakets erzwingen, doch der Vorgang ist bei Quellen wie <a href="https://launchpad.net/~xorg-edgers/+archive/ppa" target="_blank" rel="noopener">xorg-edgers</a> oder <a href="https://launchpad.net/~ubuntu-mozilla-daily/+archive/ppa" target="_blank" rel="noopener">ubuntu-mozilla-daily</a>, die eine ganze Reihe von Paketen bereithalten, recht aufwändig das man jedes Paket einzeln deaktualisieren müsste. Im xorg-edgers PPA gibt es jedoch jetzt ein Mittelchen, das die Aufgabe deutlich vereinfacht&#8230;</p>
<p><figure id="attachment_5341" aria-describedby="caption-attachment-5341" style="width: 640px" class="wp-caption aligncenter"><a href="http://linuxundich.de/wp-content/uploads/2009/12/synaptic_revert.jpg"><img loading="lazy" decoding="async" class="wp-image-5341 size-medium" title="synaptic_revert" src="https://linuxundich.de/wp-content/uploads/2009/12/synaptic_revert-640x409.jpg" alt="Ältere Version eines Pakets erzwingen" width="640" height="409" srcset="https://linuxundich.de/wp-content/uploads/2009/12/synaptic_revert-640x409.jpg 640w, https://linuxundich.de/wp-content/uploads/2009/12/synaptic_revert-657x420.jpg 657w, https://linuxundich.de/wp-content/uploads/2009/12/synaptic_revert-681x436.jpg 681w, https://linuxundich.de/wp-content/uploads/2009/12/synaptic_revert-250x160.jpg 250w, https://linuxundich.de/wp-content/uploads/2009/12/synaptic_revert-550x352.jpg 550w, https://linuxundich.de/wp-content/uploads/2009/12/synaptic_revert-800x512.jpg 800w, https://linuxundich.de/wp-content/uploads/2009/12/synaptic_revert-281x180.jpg 281w, https://linuxundich.de/wp-content/uploads/2009/12/synaptic_revert-469x300.jpg 469w, https://linuxundich.de/wp-content/uploads/2009/12/synaptic_revert-782x500.jpg 782w, https://linuxundich.de/wp-content/uploads/2009/12/synaptic_revert.jpg 1013w" sizes="auto, (max-width: 640px) 100vw, 640px"></a><figcaption id="caption-attachment-5341" class="wp-caption-text">Ältere Version eines Pakets erzwingen</figcaption></figure></p>
<p>Wer also nicht zig Pakete von Hand auf eine ältere Version bringen möchte, der installiert sich das Paket ppa-purge aus dem xorg-edgers PPA. Ich würde die Quelle selber nicht in das System einfügen. Das xorg-edgers PPA enthält experimentelle Pakete für Grafiktreiber und X-Server, wenn Euch die graphische Umgebung Eures System lieb ist, dann würde ich von der Quelle die Finger lassen.</p>
<p>Das Paket kann man auch so <a href="https://launchpad.net/~xorg-edgers/+archive/ppa/+sourcepub/893290/+listing-archive-extra" target="_blank" rel="noopener">herunterladen</a> und dann mit einem Doppelklick installieren. Die Funktionsweise erkläre ich anhand der ubuntu-mozilla-daily Paketquellen, die experimentelle Pakete von allen Mozilla-Produkten enthät. Via&#8230;</p>
<pre>$ sudo add-apt-repository ppa:ubuntu-mozilla-daily/ppa
</pre>
<p>&#8230;füge ich sie zu meinem System hinzu, um dann die Quellen neu einzulesen und ein Upgrade durchzuführen&#8230;</p>
<pre>$ sudo apt-get update
$ sudo apt-get dist-upgrade
[...]
Die folgenden Pakete werden aktualisiert:
  firefox firefox-3.5 firefox-3.5-branding firefox-3.5-gnome-support firefox-gnome-support prism xulrunner-1.9.1 xulrunner-1.9.1-gnome-support
8 aktualisiert, 0 neu installiert, 0 zu entfernen und 0 nicht aktualisiert.
Es müssen noch 0B von 10,1MB an Archiven heruntergeladen werden.
Nach dieser Operation werden 565kB Plattenplatz zusätzlich benutzt.
Möchten Sie fortfahren [J/n]? 
[...]
</pre>
<p>Es werden also Vorabversionen von Firefox, Prism und Zubehör installiert. Will ich zurück zu den &#8222;alten&#8220; Versionen aus den Paketquellen von Canonical, so müsste ich wie oben im Bild gezeigt in Synaptic jedes Paket einzeln von Hand auf die offizielle Version bringen. ppa-purge macht das für mich mit einem Kommando&#8230;</p>
<pre>$ sudo ppa-purge ppa:ubuntu-mozilla-daily/ppa
PPA to be removed: ubuntu-mozilla-daily ppa
[...]
Disabling ubuntu-mozilla-daily PPA from 
/etc/apt/sources.list.d/ubuntu-mozilla-daily-ppa-karmic.list
Running apt-get update
[...]
Die folgenden Pakete werden DEAKTUALISIERT:
  firefox firefox-3.5 firefox-3.5-branding firefox-3.5-gnome-support firefox-gnome-support prism xulrunner-1.9.1 xulrunner-1.9.1-gnome-support
0 aktualisiert, 0 neu installiert, 8 deaktualisiert, 0 zu entfernen und 0 nicht aktualisiert.
Es müssen noch 0B von 9.802kB an Archiven heruntergeladen werden.
Nach dieser Operation werden 565kB Plattenplatz freigegeben.
Möchten Sie fortfahren [J/n]? 
</pre>
<p>ppa-purge wird wohl in der kommenden Version auch offiziell Einzug in Ubuntu halten. Bis dahin könnt Ihr das Programm ja von Hand installieren und aktuell halten.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://linuxundich.de/gnu-linux/ppa-inklusive-der-aus-ihnen-installierten-pakete-entfernen/feed/</wfw:commentRss>
			<slash:comments>14</slash:comments>
		
		
			</item>
	</channel>
</rss>
