href="http://sources.redhat.com/rhdb/">http://sources.redhat.com/rhdb/
- http://www.thekompany.com/products/rekall/, GPL/proprietär). Es gibt
+ http://www.thekompany.com/products/rekall/, GPL/proprietär). Es gibt
http://phppgadmin.sourceforge.net/ ), eine web-basierte Schnittstelle.
2.4) Welche Programmiersprachen und Schnittstellen gibt es?
-
Die meisten gängigen Programmiersprachen bieten Schnittstellen für
+
Die meisten gängigen Programmiersprachen bieten Schnittstellen für
PostgreSQL.
Die folgenden Schnittstellen werden mit der PostgreSQL-Distribution
TCL (libpgtcl)
-
Weitere Schnittstellen für andere Sprachen können über
+
Weitere Schnittstellen für andere Sprachen können über
(Bereich Drivers/Interfaces) bezogen werden.
3.1) Wie installiere ich PostgreSQL woanders als in /usr/local/pgsql?
-
Bei der Ausführung von configure die Option --prefix mit dem Zielverzeichnis
+
Bei der Ausführung von configure die Option --prefix mit dem Zielverzeichnis
angeben.
3.2) Wenn ich den postmaster starte, erhalte ich einen Nachricht
"Bad System Call" bzw. "core dumped". Wieso?
-
Das kann verschiedene Ursachen haben. Überprüfen Sie zuerst, ob Ihr Kernel
- System V Extensions unterstützt. PostgreSQL benötigt Kernel-Unterstützung
- für Shared Memory und Semaphoren.
+
Das kann verschiedene Ursachen haben. Überprüfen Sie zuerst, ob Ihr Kernel
+ System V Extensions unterstützt. PostgreSQL benötigt Kernel-Unterstützung
+ für Shared Memory und Semaphoren.
3.3) Wenn ich versuche, den postmaster zu starten, bekomme ich "IpcMemoryCreate"-Fehlermeldungen. Warum?
Entweder ist Shared Memory in Ihrem Kernel nicht korrekt konfiguriert, oder
- Sie müssen den Shared Memory Bereich vergrößern. Die genaue Größe hängt
+ Sie müssen den Shared Memory Bereich vergrößern. Die genaue Größe hängt
von Ihrer Systemarchitektur und von der Anzahl der Puffer und Serverprozesse
- ab, die Sie für postmaster konfiguriert haben. Bei den voreingestellten
- Werten für Puffer und Prozesse benötigen Sie bei den meisten Systemen
+ ab, die Sie für postmaster konfiguriert haben. Bei den voreingestellten
+ Werten für Puffer und Prozesse benötigen Sie bei den meisten Systemen
ein Minimum von ca. 1 MB. Der "PostgreSQL Administrator's Guide"
- enthält weitere Informationen zu Shared Memory und Semaphores.
+ enthält weitere Informationen zu Shared Memory und Semaphores.
3.4) Wenn ich versuche, den postmaster zu starten, bekomme ich
Falls die Fehlermeldung "IpcSemaphoreCreate: semget failed (No space
left on device)" lautet, ist Ihr Kernel mit zu wenig Semaphoren
- konfiguriert. PostgreSQL benötigt eine Semaphore pro möglichem
- Backend-Prozess. Eine Zwischenlösung wäre, postmaster mit einer
+ konfiguriert. PostgreSQL benötigt eine Semaphore pro möglichem
+ Backend-Prozess. Eine Zwischenlösung wäre, postmaster mit einer
geringeren Anzahl an Backend-Prozessen zu starten. Benutzen Sie dazu die
- -N Option mit einem kleineren Wert als die standardmäßigen 32. Eine
- dauerhafte Lösung wäre es, die Parameter SEMMNS und SEMMNI Ihres Kernels
- zu erhöhen.
+ -N Option mit einem kleineren Wert als die standardmäßigen 32. Eine
+ dauerhafte Lösung wäre es, die Parameter SEMMNS und SEMMNI Ihres Kernels
+ zu erhöhen.
-
Nichtfunktionierende Semaphores können außerdem bei hoher Datenbanklast
- zu Abstürzen führen.
+
Nichtfunktionierende Semaphores können außerdem bei hoher Datenbanklast
+ zu Abstürzen führen.
-
Falls die Fehlermeldung anders aussieht, ist möglicherweise keine
- Semaphoren-Unterstützung in Ihrem Kernel aktiviert. Der "PostgreSQL
- Administrator's Guide" enthält weitere Informationen zu Shared Memory
+
Falls die Fehlermeldung anders aussieht, ist möglicherweise keine
+ Semaphoren-Unterstützung in Ihrem Kernel aktiviert. Der "PostgreSQL
+ Administrator's Guide" enthält weitere Informationen zu Shared Memory
und Semaphores.
3.5) Wie regle ich Zugriffe von anderen Rechnern?
-
PostgreSQL ist standardmäßig so eingestellt, dass Verbindungen nur vom
- lokalen Rechner über Unix Domain Sockets möglich sind. Verbindungen
- von anderen Rechnern über TCP/IP sind nur möglich, wenn der postmaster
+
PostgreSQL ist standardmäßig so eingestellt, dass Verbindungen nur vom
+ lokalen Rechner über Unix Domain Sockets möglich sind. Verbindungen
+ von anderen Rechnern über TCP/IP sind nur möglich, wenn der postmaster
mit der -i Option gestartet wird und / oder die Option listen_addresses
(in 7.x-Versionen: tcpip_sockets) in postgresql.conf eingeschaltet wird, und die
host-basierte Authentifizierung in der Datei $PGDATA/pg_hba.conf
entsprechend angepasst ist.
-
3.6) Wie optimiere ich die Datenbank für bessere Leistung?
+
3.6) Wie optimiere ich die Datenbank für bessere Leistung?
Der Einsatz von Indizes sollte auf jeden Fall Abfragen beschleunigen. Die
Anweisung EXPLAIN ANALYZE zeigt, wie PostgreSQL Abfragen interpretiert und
welche Indizes benutzt werden.
-
Wenn Sie eine große Anzahl von INSERT-Anweisungen durchführen, sollten Sie
- überlegen, ob die Durchführung mit der COPY-Anweisung in Frage kommt. Dies
+
Wenn Sie eine große Anzahl von INSERT-Anweisungen durchführen, sollten Sie
+ überlegen, ob die Durchführung mit der COPY-Anweisung in Frage kommt. Dies
funktioniert wesentlich schneller als einzelne INSERT-Befehle.
SQL-Anweisungen, die sich nicht in einem BEGIN WORK/COMMIT Transaktions-
- Block befinden, werden als eigene Transaktionen behandelt. Überlegen Sie,
+ Block befinden, werden als eigene Transaktionen behandelt. Überlegen Sie,
ob die Anweisungen nicht in einen einzelnen Transaktionsblock zusammen-
- gefasst werden können. Das reduziert den Transaktionsaufwand. Überlegen
- Sie auch, bei größeren Datenänderungen Indizes zu löschen und danach
+ gefasst werden können. Das reduziert den Transaktionsaufwand. Überlegen
+ Sie auch, bei größeren Datenänderungen Indizes zu löschen und danach
wiederherzustellen.
Es gibt verschiedene Tuning-Optionen, die im Handbuch dokumentiert sind
- Sie können fsync() ausschalten, indem Sie beim Starten des postmaster
+ Sie können fsync() ausschalten, indem Sie beim Starten des postmaster
die Optionen -o -F angeben. Das hindert fsync()-Operationen
daran, nach jeder Transaktion die Daten direkt auf die Festplatte zu schreiben.
-
Sie können auch mit der shared_buffers Option des postmaster die
- Anzahl der Shared Memory Puffer für die Backend-Prozesse erhöhen. Falls Sie diesen Wert
+
Sie können auch mit der shared_buffers Option des postmaster die
+ Anzahl der Shared Memory Puffer für die Backend-Prozesse erhöhen. Falls Sie diesen Wert
jedoch zu hoch setzen, kann es vorkommen, dass der postmaster nicht startet,
- weil die Obergrenze der Speicherzuweisung für Shared Memory überschritten
- wird. Jeder Puffer ist 8 kB groß, voreingestellt sind 1000 Puffer.
+ weil die Obergrenze der Speicherzuweisung für Shared Memory überschritten
+ wird. Jeder Puffer ist 8 kB groß, voreingestellt sind 1000 Puffer.
-
Die sort_mem (ab PostgreSQL 8.0: work_mem)-Optionen des Backends können benutzt
- werden, um die Größe des Speicherplatzes für temporäres Sortieren zu erhöhen. Die
- Werte werden in Kilobyte gemessen und sind standardmäßig auf 1024 (d.h. 1MB) festgelegt.
+
Die sort_mem (ab PostgreSQL 8.0: work_mem)-Optionen des Backends können benutzt
+ werden, um die Größe des Speicherplatzes für temporäres Sortieren zu erhöhen. Die
+ Werte werden in Kilobyte gemessen und sind standardmäßig auf 1024 (d.h. 1MB) festgelegt.
Die CLUSTER-Anweisung kann benutzt werden, um Daten in
Basistabellen zu gruppieren, so dass - um einen schnelleren Zugriff zu
erreichen - die physikalische Speicherung der Reihenfolge eines der Indexe
- entspricht. Siehe auch die CLUSTER(l) Man-Page für weitere
+ entspricht. Siehe auch die CLUSTER(l) Man-Page für weitere
Details.
-
3.7) Welche Debugging-Funktionen sind für PostgreSQL verfügbar?
+
3.7) Welche Debugging-Funktionen sind für PostgreSQL verfügbar?
-
PostgreSQL hat einige Möglichkeiten, Statusinformationen anzuzeigen,
- die bei der Fehlersuche nützlich sein können.
+
PostgreSQL hat einige Möglichkeiten, Statusinformationen anzuzeigen,
+ die bei der Fehlersuche nützlich sein können.
Wenn Sie PostgreSQL mit dem --enable-cassert Option kompiliert
haben, verfolgen zahlreiche assert()-Anweisungen den Ablauf des
Backends und halten das Programm an, wenn etwas Unerwartetes passiert.
Sowohl der postmaster als auch postgres stellen mehrere
- Debug-Optionen zur Verfügung. Zuerst sollten Sie sichergehen, dass Sie die Ausgaben über den Standard-Output
+ Debug-Optionen zur Verfügung. Zuerst sollten Sie sichergehen, dass Sie die Ausgaben über den Standard-Output
und den Standard-Error in eine Datei umleiten, wenn Sie den postmaster starten:
cd /usr/local/pgsql
Dadurch wird die Datei server.log im PostgreSQL-Verzeichnis erzeugt. Diese
- Datei enthält nützliche Informationen über Probleme oder Fehler, die
+ Datei enthält nützliche Informationen über Probleme oder Fehler, die
im Server aufgetreten sind. postmaster hat eine -d Option, die noch
detailliertere Informationen liefert. Zur -d Option wird eine Nummer
angegeben, die den Debug-Level - also die Menge der berichteten
- Information - angibt. Achtung, hohe Debug-Levels erzeugen schnell große
+ Information - angibt. Achtung, hohe Debug-Levels erzeugen schnell große
Logdateien!
-
Wenn der postmaster nicht läuft, können Sie das postgres-Backend sogar
- von der Befehlszeile ausführen und eine SQL-Anweisung direkt eingeben.
- Dies ist allerdings nur für Debugging-Zwecke zu empfehlen. Beachten Sie, dass hierbei ein
- Zeilenumbruch, und nicht - wie sonst üblich - das Semikolon die SQL-Anweisung beendet.
- Falls Sie PostgreSQL mit Debugging-Symbolen kompiliert haben, können Sie
+
Wenn der postmaster nicht läuft, können Sie das postgres-Backend sogar
+ von der Befehlszeile ausführen und eine SQL-Anweisung direkt eingeben.
+ Dies ist allerdings nur für Debugging-Zwecke zu empfehlen. Beachten Sie, dass hierbei ein
+ Zeilenumbruch, und nicht - wie sonst üblich - das Semikolon die SQL-Anweisung beendet.
+ Falls Sie PostgreSQL mit Debugging-Symbolen kompiliert haben, können Sie
mit einem Debugger sehen, was passiert. Da das Backend jedoch nicht vom
- postmaster gestartet wurde, läuft es nicht in der gleichen
- Umgebung und deshalb können einige locking-Vorgänge sowie die Kommunikation zwischen den Backends nicht
+ postmaster gestartet wurde, läuft es nicht in der gleichen
+ Umgebung und deshalb können einige locking-Vorgänge sowie die Kommunikation zwischen den Backends nicht
reproduziert werden.
-
Wenn der postmaster hingegen läuft, führen Sie psql in einem Fenster aus,
+
Wenn der postmaster hingegen läuft, führen Sie psql in einem Fenster aus,
ermitteln Sie die Prozessnummer (PID) des postgres-Prozesses, der von psql
verwendet wird (mit
SELECT pg_backend_pid()
). Binden Sie einen Debugger an diese
PID
- und führen Sie Abfragen von psql aus. Wenn Sie den postgres-Serverstart analysieren
+ und führen Sie Abfragen von psql aus. Wenn Sie den postgres-Serverstart analysieren
wollen, setzen Sie die Umgebungsvariable PGOPTIONS="-W n", und starten Sie
- dann psql. Dies verzögert den Start um n Sekunden, damit Sie einen Debugger an
- den Prozess binden und ggf. Breakpoints setzen können, bevor die
+ dann psql. Dies verzögert den Start um n Sekunden, damit Sie einen Debugger an
+ den Prozess binden und ggf. Breakpoints setzen können, bevor die
Startsequenz begonnen wird.
Es gibt verschiedene Einstellungen (die log_*-Gruppe), die diverse
Server-Statistik ausgeben und daher bei der Fehlersuche und Performanzmessung sehr
- nützlich sein können.
+ nützlich sein können.
-
Sie können die Anwendung auch mit Profiling kompilieren, um zu sehen,
- welche Funktionen wieviel Ausführungszeit beanspruchen. Das Backend
+
Sie können die Anwendung auch mit Profiling kompilieren, um zu sehen,
+ welche Funktionen wieviel Ausführungszeit beanspruchen. Das Backend
Profil wird im Verzeichnis pgsql/data/base/dbname abgelegt. Das
Client-Profil wird in das aktuelle Verzeichnis abgelegt. Bitte beachtern Sie,
dass unter Linux PostgreSQL mit der Option -DLINUX_PROFILE kompiliert werden
- muß, um Profiling nutzen zu können.
+ muß, um Profiling nutzen zu können.
3.8) Ich bekomme die Meldung "Sorry, too many clients", wenn ich eine
Verbindung aufzubauen versuche. Warum?
-
Sie müssen die maximale Anzahl der gleichzeitig ausführbaren Backend-
+
Sie müssen die maximale Anzahl der gleichzeitig ausführbaren Backend-
Prozesse hochsetzen.
-
Die Voreinstellung erlaubt 32 Prozesse. Sie können diese erhöhen, indem Sie
+
Die Voreinstellung erlaubt 32 Prozesse. Sie können diese erhöhen, indem Sie
den postmaster mit einem entsprechenden -N Parameter starten bzw. die
Konfigurationsdatei postgresql.conf anpassen.
-
Bitte beachten Sie, dass Sie auch -B auf ein Wert größer als die Voreinstellung
- von 64 setzen müssen, wenn Sie -N auf einen Wert höher als 32 setzen;
+
Bitte beachten Sie, dass Sie auch -B auf ein Wert größer als die Voreinstellung
+ von 64 setzen müssen, wenn Sie -N auf einen Wert höher als 32 setzen;
-B muss mindestens das Doppelte von -N betragen, und einer besseren
- Performanz wegen sollte der Wert noch höher sein. Bei einer hohen Anzahl von
+ Performanz wegen sollte der Wert noch höher sein. Bei einer hohen Anzahl von
Backend-Prozessen kann es vorkommen, dass Sie einige Unix-Kernel-
- Parameter ebenfalls erhöhen müssen. Folgende Parameter sind zu überprüfen:
- die Maximalgröße der Shared Memory Blocks SHMMAX; die Maximalanzahl der
+ Parameter ebenfalls erhöhen müssen. Folgende Parameter sind zu überprüfen:
+ die Maximalgröße der Shared Memory Blocks SHMMAX; die Maximalanzahl der
Semaphoren SEMMNS und SEMMNI; die maximale Anzahl von Prozessen NPROC;
die maximale Anzahl von Prozessen pro User MAXUPRC; und die Maximalzahl
- der geöffneten Dateien NFILE und NINODE. Durch die Begrenzung der Anzahl
+ der geöffneten Dateien NFILE und NINODE. Durch die Begrenzung der Anzahl
erlaubter Backend-Prozesse wird verhindert, dass System-Ressourcen
durch PostgreSQL aufgebraucht werden.
3.9) Was befindet sich im Verzeichnis pgsql_tmp/?
-
Dieses Verzeichnis enthält temporäre Dateien, die durch den query executor
- erzeugt werden. Wenn zum Beispiel eine Sortierung durchgeführt werden muß,
- um ein ORDER BY auszuführen, und diese Sortierung mehr Hauptspeicher
- benötigt, als mit dem Backend-Parameter -S erlaubt wurde, dann werden
+
Dieses Verzeichnis enthält temporäre Dateien, die durch den query executor
+ erzeugt werden. Wenn zum Beispiel eine Sortierung durchgeführt werden muß,
+ um ein ORDER BY auszuführen, und diese Sortierung mehr Hauptspeicher
+ benötigt, als mit dem Backend-Parameter -S erlaubt wurde, dann werden
diese Dateien erzeugt, um die Daten dort zu auszulagern.
-
Die temporären Dateien sollten automatisch gelöscht werden. Falls das
- Backend jedoch während einer Sortierung abstürzen sollte, bleiben sie
+
Die temporären Dateien sollten automatisch gelöscht werden. Falls das
+ Backend jedoch während einer Sortierung abstürzen sollte, bleiben sie
erhalten. Nach einem Neustart des postmaster werden sie dann aber wieder
- automatisch gelöscht.
+ automatisch gelöscht.
-
3.10) Warum muß ich bei jeder neuen Hauptversion von PostgreSQL
- die komplette Datenbank exportieren und anschließend reimportieren?
+
3.10) Warum muß ich bei jeder neuen Hauptversion von PostgreSQL
+ die komplette Datenbank exportieren und anschließend reimportieren?
-
Zwischen "kleinen" PostgreSQL-Versionsänderungen (z.B. zwischen
- 7.2 und 7.2.1) werden keine strukturellen Änderungen durchgeführt,
+
Zwischen "kleinen" PostgreSQL-Versionsänderungen (z.B. zwischen
+ 7.2 und 7.2.1) werden keine strukturellen Änderungen durchgeführt,
wodurch ein erneutes Aus- und Einlesen der Daten nicht erforderlich ist.
- Allerdings wird bei "großen" Versionsänderungen (z.B. zwischen 7.2 und 7.3)
+ Allerdings wird bei "großen" Versionsänderungen (z.B. zwischen 7.2 und 7.3)
oft das interne Format der Systemtabellen und Datendateien
- angepasst. Diese Änderungen sind oft sehr komplex, wodurch die
- Rückwärtskompatibilität der Datendateien nicht gewährleistet werden kann.
+ angepasst. Diese Änderungen sind oft sehr komplex, wodurch die
+ Rückwärtskompatibilität der Datendateien nicht gewährleistet werden kann.
Durch das Exportieren werden die Daten in einem generischen Format
ausgegeben, wodurch die Importierung in das neue interne Format
- ermöglicht wird.
+ ermöglicht wird.
-
Bei Upgrades, bei denen keine Formatänderungen stattgefunden haben,
+
Bei Upgrades, bei denen keine Formatänderungen stattgefunden haben,
kann das pg_upgrade-Skript benutzt werden, um die Daten ohne Aus-
- und Einlesen zu übertragen. Die jeweilige Dokumentation gibt an, ob für
- die betreffende Version pg_upgrade verfügbar ist.
+ und Einlesen zu übertragen. Die jeweilige Dokumentation gibt an, ob für
+ die betreffende Version pg_upgrade verfügbar ist.
-
3.11) Welche Hardware eignet sich für den Betrieb mit PostgreSQL?
+
3.11) Welche Hardware eignet sich für den Betrieb mit PostgreSQL?
-
PostgreSQL läuft auf fast jeder Hardware-Kombination. Im PC-Bereich
- gibt es allerdings sehr große Abweichungen in der Qualität. Für einen
+
PostgreSQL läuft auf fast jeder Hardware-Kombination. Im PC-Bereich
+ gibt es allerdings sehr große Abweichungen in der Qualität. Für einen
Arbeitsplatz- oder Entwicklungsrechner mag dies nicht so bedeutend sein,
im Server-Betrieb jedoch lohnt sich auf jeden Fall die Investition
- in teurere Bestandteile (Stichwörter ECC-Speicher, SCSI, Hauptplatinen
+ in teurere Bestandteile (Stichwörter ECC-Speicher, SCSI, Hauptplatinen
und Netzteile von namhaften Herstellern).
4.1) Worin besteht der Unterschied zwischen Binary Cursors und Normal
Cursors?
-
Vgl. die DECLARE Man-Page für eine Beschreibung.
+
Vgl. die DECLARE Man-Page für eine Beschreibung.
-
4.2) Wie wähle ich per SELECT-Anweisung nur die ersten paar
+
4.2) Wie wähle ich per SELECT-Anweisung nur die ersten paar
Zeilen bzw. eine beliebige Zeile in einer Abfrage aus?
Vgl. die FETCH Man-Page, oder benutzen Sie SELECT ... LIMIT... .
-
Selbst wenn Sie nur die ersten paar Zeilen einer Tabelle abfragen möchten,
- muß unter Umständen die komplette Abfrage abgearbeitet werden. Ziehen Sie also
- möglichst eine Abfrage in Erwägung, die eine ORDER BY-Anweisung
+
Selbst wenn Sie nur die ersten paar Zeilen einer Tabelle abfragen möchten,
+ muß unter Umständen die komplette Abfrage abgearbeitet werden. Ziehen Sie also
+ möglichst eine Abfrage in Erwägung, die eine ORDER BY-Anweisung
benutzt, welche wiederum auf indizierte Spalten verweist. In diesem Fall kann
- PostgreSQL direkt nach den gewünschten Zeilen suchen und braucht nicht
- jede mögliche Ergebniszeile abzuarbeiten.
+ PostgreSQL direkt nach den gewünschten Zeilen suchen und braucht nicht
+ jede mögliche Ergebniszeile abzuarbeiten.
Bitte beachten Sie, dass mit PostgreSQL 7.3 die Syntax LIMIT n, m
durch LIMIT n OFFSET m ersetzt wurde.
-
Um eine beliebige Zeile auszuwählen, nutzen Sie ORDER BY random():
+
Um eine beliebige Zeile auszuwählen, nutzen Sie ORDER BY random():
SELECT spalte
FROM tabelle
LIMIT 1
-
4.3) Wie bekomme ich eine Liste der Tabellen oder anderen Dinge, die ich
- in psql sehen kann?
+
4.3) Wie finde ich heraus, welche Tabellen, Indizes, Datenbanken oder
+ Benutzer in der Datenbank definiert sind? Wie bekomme ich die von psql verwendeten Abfragen?
In psql zeigt der Befehl \dt eine Liste der Datenbanktabellen. Weitere psql-Befehle
- lassen sich mit \? anzeigen. Sie können sich die Datei pgsql/src/bin/psql/describe.c
- mit dem Quellcode für psql ansehen. Sie enthält die SQL-Abfragen, die die
- Backslash-Kommandos (\) ausführen. Sie können psql auch mit der -E
- Option starten. Danach gibt psql die Abfragen aus, die es bei der Ausführung der Befehle
- benutzt. Außerdem biete PostgreSQL ein SQLi-kompatibles INFORMATION SCHEMA,
- das Metainformation über die Datenbank zur Verfügung stellt.
-
-
4.4) Wie entferne ich eine Spalte aus einer Tabelle? Wie ändere
+ lassen sich mit \? anzeigen. Sie können sich die Datei pgsql/src/bin/psql/describe.c
+ mit dem Quellcode für psql ansehen. Sie enthält die SQL-Abfragen, die die
+ Backslash-Kommandos (\) ausführen. Sie können psql auch mit der -E
+ Option starten. Danach gibt psql die Abfragen aus, die es bei der Ausführung der Befehle
+ benutzt. Außerdem biete PostgreSQL ein SQL-kompatibles INFORMATION SCHEMA,
+ das Metainformation über die Datenbank zur Verfügung stellt.
+
+
Die Datei pgsql/src/tutorial/syscat.source enthält außerdem viele SELECT-
+ Abfragen, mit deren Hilfe man Information über die Systemtabellen erhalten kann.
+
+
4.4) Wie entferne ich eine Spalte aus einer Tabelle? Wie ändere
ich den Datentyp einer Spalte?
-
Der Syntax ALTER TABLE DROP COLUMN wird ab PostgreSQL 7.3 unterstützt.
+
Der Syntax ALTER TABLE DROP COLUMN wird ab PostgreSQL 7.3 unterstützt.
-
Bei früheren Versionen bietet das folgende Verfahren Ersatz:
+
Bei früheren Versionen bietet das folgende Verfahren Ersatz:
BEGIN;
LOCK TABLE old_table;
- SELECT ... -- alle außer der zu entfernenden Spalte hier auswählen
+ SELECT ... -- alle außer der zu entfernenden Spalte hier auswählen
INTO TABLE new_table
FROM old_table;
DROP TABLE old_table;
ALTER TABLE new_table RENAME TO old_table;
COMMIT;
-
Um den Datentyp einer Spalte zu ändern, gehen Sie wie folgt vor:
+
Um den Datentyp einer Spalte zu ändern, gehen Sie wie folgt vor:
BEGIN;
ALTER TABLE tabelle ADD COLUMN neue_spalte neuer_datentyp;
ALTER TABLE tabelle DROP COLUMN alte_spalte;
COMMIT;
-
Um den Speicherplatz freizugeben, der von der gelöschten Spalte verwendet
- wurde, führen Sie VACUUM FULL aus.
+
Um den Speicherplatz freizugeben, der von der gelöschten Spalte verwendet
+ wurde, führen Sie VACUUM FULL aus.
-
4.5) Was ist die Maximalgröße für eine Zeile, eine Tabelle, eine Datenbank?
+
4.5) Was ist die Maximalgröße für eine Zeile, eine Tabelle, eine Datenbank?
Es bestehen folgende Obergrenzen:
- Maximale Größe eine Datenbank? unbeschränkt (es existieren
+ Maximale Größe eine Datenbank? unbeschränkt (es existieren
Datenbanken mit 32 TB)
- Maximale Größe einer Tabelle? 32 TB
- Maximale Größe einer Zeile? 1,6 TB
- Maximale Größe einer Spalte? 1 GB
+ Maximale Größe einer Tabelle? 32 TB
+ Maximale Größe einer Zeile? 1,6 TB
+ Maximale Größe einer Spalte? 1 GB
Maximale Anzahl von Zeilen in einer Tabelle?
- unbeschränkt
+ unbeschränkt
Maximale Anzahl von Spalten in einer Tabelle?
250-1600 je nach Spaltentyp
- Maximale Anzahl von Indizies für eine Tabelle?
- unbeschränkt
+ Maximale Anzahl von Indizies für eine Tabelle?
+ unbeschränkt
-
Selbstverständlich sind dies theoretische Werte, die oft durch die
- verfügbaren Platten- und Speicherressourcen beschränkt werden.
- Extreme Größen können zu Leistungseinbußen führen.
+
Selbstverständlich sind dies theoretische Werte, die oft durch die
+ verfügbaren Platten- und Speicherressourcen beschränkt werden.
+ Extreme Größen können zu Leistungseinbußen führen.
-
Die maximale Tabellengröße von 32 TB benötigt keine Large-File-Unterstützung
- im Betriebssystem. Große Tabellen werden in Dateien mit einer Größe von
- je 1 GB aufgeteilt, wodurch etwaige dateisystem-bedingte Beschränkungen nicht
+
Die maximale Tabellengröße von 32 TB benötigt keine Large-File-Unterstützung
+ im Betriebssystem. Große Tabellen werden in Dateien mit einer Größe von
+ je 1 GB aufgeteilt, wodurch etwaige dateisystem-bedingte Beschränkungen nicht
relevant sind.
-
Die maximale Tabellengröße und die maximale Anzahl von Spalten können
- vervierfacht werden, indem man die Default-Blockgröße auf 32 KB heraufsetzt.
+
Die maximale Tabellengröße und die maximale Anzahl von Spalten können
+ vervierfacht werden, indem man die Default-Blockgröße auf 32 KB heraufsetzt.
-
4.6) Wieviel Plattenplatz wird benötigt, um die Daten aus einer typischen
+
4.6) Wieviel Plattenplatz wird benötigt, um die Daten aus einer typischen
Textdatei abzuspeichern?
Eine PostgreSQL-Datenbank kann beim Abspeichern einer einfachen Textdatei
- bis zu fünfmal mehr Platz gegenüber der eigentlichen Größe der Datei
+ bis zu fünfmal mehr Platz gegenüber der eigentlichen Größe der Datei
beanspruchen.
Betrachten wir eine Datei mit 100.000 Zeilen mit einem Integer und einer
Textbeschreibung pro Zeile. Gehen wir davon aus, dass die durchschnittliche
- Länge der Textbeschreibung 20 Byte beträgt. Die einfache Datei würde 2,8 MB
- groß sein. Die Größe der PostgreSQL-Datenbankdatei, die diese Daten enthält,
- liegt ungefähr bei 6,4 MB:
+ Länge der Textbeschreibung 20 Byte beträgt. Die einfache Datei würde 2,8 MB
+ groß sein. Die Größe der PostgreSQL-Datenbankdatei, die diese Daten enthält,
+ liegt ungefähr bei 6,4 MB:
- 32 Bytes: jeder Zeilenkopf (ungefähr)
+ 32 Bytes: jeder Zeilenkopf (ungefähr)
+24 Bytes: ein Integer-Feld und ein Textfeld
+ 4 Bytes: Zeiger auf der Datenseite auf den Tupel
-----------------------------------------------
60 Bytes pro Zeile
-
Die Größe einer Datenseite in PostgreSQL beträgt 8192 Bytes (8 KB), also:
+
Die Größe einer Datenseite in PostgreSQL beträgt 8192 Bytes (8 KB), also:
8192 Bytes pro Seite
--------------------- = 136 Zeilen pro Seite (abgerundet)
735 Datenbankseiten * 8192 Bytes pro Seite = 6.021.120 Byte (6 MB)
Indizes beanspruchen nicht so viel Platz. Da sie jedoch die
- Daten beinhalten, die sie indizieren, können auch sie sehr groß werden.
+ Daten beinhalten, die sie indizieren, können auch sie sehr groß werden.
NULL-Werte werden als Bitmaps gespeichert, wodurch sie sehr wenig
Platz in Anspruch nehmen.
-
4.7) Wie finde ich heraus, welche Tabellen, Indizes,
- Datenbanken oder Benutzer in der Datenbank definiert sind?
-
-
psql hat eine Vielzahl von Backslash-Befehlen, mit denen solche Informationen
- angezeigt werden können. Der Befehl \? zeigt eine Übersicht. Außerdem
- zeigt der Befehl \l eine Liste von allen verfügbaren Datenbanken an.
-
-
Die Datei pgsql/src/tutorial/syscat.source enthält außerdem viele
- SELECT-Anweisungen, mit deren Hilfe man Information über die Systemtabellen
- erhalten kann.
-
-
4.8) Meine Abfragen sind langsam oder benutzen die Indizes nicht. Warum?
+
4.7) Meine Abfragen sind langsam oder benutzen die Indizes nicht. Warum?
Indizes werden nicht automatisch bei jeder Abfrage verwendet. Indizes werden
- nur dann verwendet, wenn die abzufragende Tabelle eine bestimmte Größe
- übersteigt, und die Abfrage nur eine kleine Prozentzahl der Tabellenzeilen
- abfragt. Der Grund hierfür ist der, dass die durch einen Index verursachten
- Festplattenzugriffe manchmal länger dauern würden als ein einfaches Auslesen
+ nur dann verwendet, wenn die abzufragende Tabelle eine bestimmte Größe
+ übersteigt, und die Abfrage nur eine kleine Prozentzahl der Tabellenzeilen
+ abfragt. Der Grund hierfür ist der, dass die durch einen Index verursachten
+ Festplattenzugriffe manchmal länger dauern würden als ein einfaches Auslesen
aller Tabellenzeilen (sequentieller Scan).
Um festzustellen, ob ein Index verwendet werden soll, braucht PostgreSQL
- Statistiken über die Tabelle. Diese Statistiken werden durch die Anweisungen
+ Statistiken über die Tabelle. Diese Statistiken werden durch die Anweisungen
VACUUM ANALYZE bzw. ANALYZE berechnet. Anhand der Statistiken kennt der
Abfragenoptimierer die Anzahl der Tabellenzeilen und kann besser
entscheiden, ob Indizes verwendet werden sollen. Statistiken sind auch
bei der Ermittlung der optimalen JOIN-Reihenfolgen und
- -Methoden wertvoll. Daher sollten diese regelmässig durchgeführt werden, da
- sich der Inhalt einer Tabelle ja auch verändert
+ -Methoden wertvoll. Daher sollten diese regelmässig durchgeführt werden, da
+ sich der Inhalt einer Tabelle ja auch verändert
In Versionen vor 8.0 werden Indizes oft nicht benutzt, wenn die
- jeweiligen Datentypen nicht genau übereinstimmen. Dies gilt besonders für
+ jeweiligen Datentypen nicht genau übereinstimmen. Dies gilt besonders für
Spalten mit numerischen und Integer-Werten.
Indizes werden normalerweise nicht in ORDER BY-Abfrage oder in JOINs
- verwendet. Ein sequentieller Scan mit anschließendem explizitem
+ verwendet. Ein sequentieller Scan mit anschließendem explizitem
Sortiervorgang ist normalerweise schneller als ein Index-Scan einer
- großen Tabelle. Jedoch wird bei einer Abfrage, in der LIMIT zusammen mit
+ großen Tabelle. Jedoch wird bei einer Abfrage, in der LIMIT zusammen mit
ORDER BY verwendet wird, oftmals ein Index verwendet, da nur ein
- kleiner Abschnitt der Tabelle zurückgeliefert wird. Dadurch wird es
- auch möglich, die Minimal- und Maximalwerte einer Abfrage unter
+ kleiner Abschnitt der Tabelle zurückgeliefert wird. Dadurch wird es
+ auch möglich, die Minimal- und Maximalwerte einer Abfrage unter
Verwendung von Indizes zu ermitteln:
SELECT spalte
(Die Aggregatfunktionen MIN() und MAX() verwenden keine Indizes).
-
Sollte es danach aussehen, also ob der Optimierer irrtümlich einen sequentiellen
- Scan ausführt, führen Sie SET enable_seqscan TO 'off' aus und prüfen
+
Sollte es danach aussehen, also ob der Optimierer irrtümlich einen sequentiellen
+ Scan ausführt, führen Sie SET enable_seqscan TO 'off' aus und prüfen
Sie, ob die Indexabfrage dadurch scheller geworden ist.
-
Bei der Nutzung von Wildcard-Operatoren wie LIKE oder ~, können
- Indizes nur unter bestimmten Umständen verwendet werden:
+
Bei der Nutzung von Wildcard-Operatoren wie LIKE oder ~, können
+ Indizes nur unter bestimmten Umständen verwendet werden:
Das Suchmuster muss sich an Anfang des Strings befinden, d.h.:
-
LIKE-Suchmuster dürfen nicht mit % anfangen;
-
~ (reguläre Ausdrücke) müssen mit ^ anfangen.
+
LIKE-Suchmuster dürfen nicht mit % anfangen;
+
~ (reguläre Ausdrücke) müssen mit ^ anfangen.
Das Suchmuster darf nicht mit einer Zeichenklasse (z.B. [a-e])
beginnen.
-
Suchmuster, die Gross- und Kleinschreibung nicht berücksichtigen (z.B.
- ILIKE bzw. ~*), verwenden keine Indizes. Stattdessen können
+
Suchmuster, die Gross- und Kleinschreibung nicht berücksichtigen (z.B.
+ ILIKE bzw. ~*), verwenden keine Indizes. Stattdessen können
funktionale Indizes verwendet werden, die im Punkt
4.12 beschrieben werden.
-
Die Standard-Locale "C" muss während der Datenbank-Initialisierung mit initdb
- verwendet worden sein, da andere locales den nächstgrößten Wert nicht
- ermitteln können. Es ist allerdings möglich, einen besonderen text_pattern_ops-Index
- für solche Fälle zu erstellen.
+
Die Standard-Locale "C" muss während der Datenbank-Initialisierung mit initdb
+ verwendet worden sein, da andere locales den nächstgrößten Wert nicht
+ ermitteln können. Es ist allerdings möglich, einen besonderen text_pattern_ops-Index
+ für solche Fälle zu erstellen.
-
9">4.9) Auf welche Weise kann ich sehen, wie der Abfrage-Optimierer meine
+
8">4.8) Auf welche Weise kann ich sehen, wie der Abfrage-Optimierer meine
Abfrage auswertet?
Vgl. die EXPLAIN Man-Page.
+
9">4.9) Was ist ein R-Tree Index?
-
Ein R-Tree Index wird benutzt, um räumliche Daten zu indizieren. Ein
- Hash-Index kann nicht für Bereichssuchen genutzt werden. Ein B-Tree
- Index kann nur für Bereichssuchen in eindimensionalen Daten genutzt
- werden. R-Trees können hingegen auch mit multi-dimensionalen Daten umgehen. Ein
+
Ein R-Tree Index wird benutzt, um räumliche Daten zu indizieren. Ein
+ Hash-Index kann nicht für Bereichssuchen genutzt werden. Ein B-Tree
+ Index kann nur für Bereichssuchen in eindimensionalen Daten genutzt
+ werden. R-Trees können hingegen auch mit multi-dimensionalen Daten umgehen. Ein
Beispiel: Wenn ein R-Tree Index auf ein Attribut vom Typ POINT
gebildet wird, dann kann das System Abfragen wie z.B. "Zeige alle
Punkte, die sich in einem umgebenden Rechteck befinden" effizienter
beantworten.
-
Die kanonische Veröffentlichung, die das originale R-Tree Design
+
Die kanonische Veröffentlichung, die das originale R-Tree Design
beschreibt, ist:
Guttman, A. "R-Trees: A Dynamic Index Structure for Spatial Searching."
Proc of the 1984 ACM SIGMOD Int'l Conf on Mgmt of Data, 45-57.
-
Sie können dieses Werk auch in Stonebrakers "Readings in Database
+
Sie können dieses Werk auch in Stonebrakers "Readings in Database
Systems" finden.
-
Die eingebauten R-Trees können Polygone und Rechtecke verarbeiten.
- Theoretisch können R-Trees auf eine hohe Anzahl von Dimensionen
- erweitert werden. Für die Praxis bedeutet eine solche Erweiterung allerdings eine Menge
- Arbeit und wir haben derzeit keinerlei Dokumentation darüber, wie das
- zu machen wäre.
+
Die eingebauten R-Trees können Polygone und Rechtecke verarbeiten.
+ Theoretisch können R-Trees auf eine hohe Anzahl von Dimensionen
+ erweitert werden. Für die Praxis bedeutet eine solche Erweiterung allerdings eine Menge
+ Arbeit und wir haben derzeit keinerlei Dokumentation darüber, wie das
+ zu machen wäre.
-
1">4.11) Was ist der "Genetic Query Optimizer"?
+
0">4.10) Was ist der "Genetic Query Optimizer"?
Das GEQO-Modul in PostgreSQL soll dazu dienen, das Optimierungsproblem
beim JOIN von vielen Tabellen auf der Basis genetischer Algorithmen
- (GA) zu lösen. Es ermöglicht die Behandlung von großen JOIN-Queries durch
- eine nicht-erschöpfende Suche.
+ (GA) zu lösen. Es ermöglicht die Behandlung von großen JOIN-Queries durch
+ eine nicht-erschöpfende Suche.
-
2">4.12) Wie verfahre ich bei der Suche mit regulären Ausdrücken und bei einer
- Suche, bei der Groß- und Kleinschreibweisen ignoriert werden? Wie verwende
+
1">4.11) Wie verfahre ich bei der Suche mit regulären Ausdrücken und bei einer
+ Suche, bei der Groß- und Kleinschreibweisen ignoriert werden? Wie verwende
ich einen Index bei solchen Suchabfragen?
-
Der Operator ~ wendet einen regulären Ausdruck an und ~* wendet ihn an, ohne die Groß- und Kleinschreibung zu beachten.
- Ebenso beachtet LIKE die Groß- und Kleinschreibung, und ILIKE nicht.
+
Der Operator ~ wendet einen regulären Ausdruck an und ~* wendet ihn an, ohne die Groß- und Kleinschreibung zu beachten.
+ Ebenso beachtet LIKE die Groß- und Kleinschreibung, und ILIKE nicht.
-
Gleichheitsvergleiche, die Groß- und Kleinschreibung ignorieren, werden
+
Gleichheitsvergleiche, die Groß- und Kleinschreibung ignorieren, werden
in der Regel so ausgedruckt:
SELECT *
CREATE INDEX tabelle_index ON tabelle (LOWER(spalte))
-
3">4.13) Wie ermittle ich in einer Abfrage, ob ein Feld NULL ist?
+
2">4.12) Wie ermittle ich in einer Abfrage, ob ein Feld NULL ist?
Testen Sie die Spalte mit IS NULL bzw. IS NOT NULL.
-
4">4.14) Was ist der Unterschied zwischen den verschiedenen CHAR-Typen?
+
3">4.13) Was ist der Unterschied zwischen den verschiedenen CHAR-Typen?
Typ interner Name Bemerkungen
-------------------------------------------------
-VARCHAR(n) varchar die Größe legt die Maximallänge fest; kein
- Auffüllen mit Leerzeichen
-CHAR(n) bpchar mit Leerzeichen gefüllt bis zur angegebenen Länge
-TEXT text keine obere Schranke für die Länge
-BYTEA bytea Bytearray mit variabler Länge (auch für
+VARCHAR(n) varchar die Größe legt die Maximallänge fest; kein
+ Auffüllen mit Leerzeichen
+CHAR(n) bpchar mit Leerzeichen gefüllt bis zur angegebenen Länge
+TEXT text keine obere Schranke für die Länge
+BYTEA bytea Bytearray mit variabler Länge (auch für
'\0'-Bytes geeignet)
"char" char 1 Zeichen
Fehlermeldungen vor.
Die ersten vier Typen sind "varlena"-Typen (d.h. die ersten vier
- Bytes geben die Länge an, gefolgt von den Daten). Daher ist der tatsächlich
- belegte Platz immer etwas mehr als die deklarierte Feldgröße. Allerdings
- wird unter Umständen auf diese Datentypen Datenkompression durch das TOAST-
- Verfahren angewendet, womit der tatsächlich belegte Platz auch geringer
+ Bytes geben die Länge an, gefolgt von den Daten). Daher ist der tatsächlich
+ belegte Platz immer etwas mehr als die deklarierte Feldgröße. Allerdings
+ wird unter Umständen auf diese Datentypen Datenkompression durch das TOAST-
+ Verfahren angewendet, womit der tatsächlich belegte Platz auch geringer
als erwartet ausfallen kann.
-
Für die Speicherung von Zeichenketten variabler Länge empfiehlt sich VARCHAR(n).
- Die maximale Länge eines VARCHAR(n)-Felds wird bei der Tabellendefinition
- festgelegt. TEXT setzt keine Längengrenze, allerdings gibt es
+
Für die Speicherung von Zeichenketten variabler Länge empfiehlt sich VARCHAR(n).
+ Die maximale Länge eines VARCHAR(n)-Felds wird bei der Tabellendefinition
+ festgelegt. TEXT setzt keine Längengrenze, allerdings gibt es
eine systembedingte Obergrenze von 1 GB.
-
CHAR(n) ist geeignet für die Speicherung von Zeichenketten, die alle
- die gleiche Länge haben. Bitte beachten Sie, dass CHAR(n) automatisch Zeichenketten
- bis zur definierten Feldlänge mit Leerzeichen ausfüllt, während bei VARCHAR(n) nur
- die tatsächlich eingegebene Zeichenkette gespeichert wird.
+
CHAR(n) ist geeignet für die Speicherung von Zeichenketten, die alle
+ die gleiche Länge haben. Bitte beachten Sie, dass CHAR(n) automatisch Zeichenketten
+ bis zur definierten Feldlänge mit Leerzeichen ausfüllt, während bei VARCHAR(n) nur
+ die tatsächlich eingegebene Zeichenkette gespeichert wird.
-
BYTEA ist für binäre Daten, besonders für Werte, die NULL-Bytes haben.
-
Alle der hier erwähnten Typen weisen ähnliche Performanzeigenschaften auf.
+
BYTEA ist für binäre Daten, besonders für Werte, die NULL-Bytes haben.
+
Alle der hier erwähnten Typen weisen ähnliche Performanzeigenschaften auf.
-
5.1">4.15.1) Wie erzeuge ich ein serielles Feld mit automatischer Erhöhung des
+
4.1">4.14.1) Wie erzeuge ich ein serielles Feld mit automatischer Erhöhung des
Werts (serial/auto-increment)?
PostgreSQL bietet einen SERIAL-Datentyp. Dieser erzeugt automatisch
);
-
Die create_sequence Man-Page liefert weitere Informationen über Sequenzen.
- Es ist auch möglich, den OID-Wert jeder Spalte als einmaligen Wert
+
Die create_sequence Man-Page liefert weitere Informationen über Sequenzen.
+ Es ist auch möglich, den OID-Wert jeder Spalte als einmaligen Wert
einzusetzen. Sollten Sie allerdings die Datenbank exportieren und
- reimportieren wollen, müssen Sie die Option -o von pg_dump bzw. COPY
+ reimportieren wollen, müssen Sie die Option -o von pg_dump bzw. COPY
WITH OIDS verwenden, um die OIDs beizubehalten.
-
5.2">4.15.2) Wie bekomme ich den Wert einer SERIAL-Sequenz?
+
4.2">4.14.2) Wie bekomme ich den Wert einer SERIAL-Sequenz?
-
Eine Möglichkeit wäre, mit der nextval()-Funktion den nächsten SERIAL-Wert
- von dem Sequenzobjekt vor der Auszuführung einer INSERT-Anweisung anzufordern und ihn
+
Eine Möglichkeit wäre, mit der nextval()-Funktion den nächsten SERIAL-Wert
+ von dem Sequenzobjekt vor der Auszuführung einer INSERT-Anweisung anzufordern und ihn
dann explizit in die INSERT-Anweisung einzubinden. Anhand der Beispieltabelle in
-
5.1">4.15.1 könnte dieser Vorgang in einer Pseudosprache so aussehen:
+
4.1">4.14.1 könnte dieser Vorgang in einer Pseudosprache so aussehen:
new_id = output of execute("SELECT nextval('person_id_seq')");
execute("INSERT INTO person (id, name) VALUES (new_id, 'Blaise Pascal')");
-
Danach stünde der neue Wert in der Variablen new_id für die Verwendung in
- weiteren Abfragen zur Verfügung, zum Beispiel als Fremdschlüssel zur
+
Danach stünde der neue Wert in der Variablen new_id für die Verwendung in
+ weiteren Abfragen zur Verfügung, zum Beispiel als Fremdschlüssel zur
Tabelle 'person'). Bitte beachten Sie, dass der Name des automatisch
erstellten SEQUENCE-Objektes folgenden Name hat:
<table>_<serialcolumn>_seq
wobei 'table' und 'serialcolumn' die Namen der jeweils betreffenden
Tabelle / Spalte darstellen.
-
Als weitere Möglichkeit können Sie nach einer INSERT-Anweisung den
- automatisch eingefügten SERIAL-Wert mit der currval()-Funktion zurückgeben
+
Als weitere Möglichkeit können Sie nach einer INSERT-Anweisung den
+ automatisch eingefügten SERIAL-Wert mit der currval()-Funktion zurückgeben
lassen:
execute("INSERT INTO person (id, name) VALUES (new_id, 'Blaise Pascal')");
new_id = output of execute("SELECT currval('person_id_seq')");
-
Schließlich besteht noch die Möglichkeit, den von einer INSERT-Anweisung
- zur
ückgelieferten ">OID-Wert als einmaligen Wert zu verwenden.
- Dieser Ansatz ist allerdings PostgreSQL-spezifisch; außerdem wird nach
- ca. 4 Milliarden Einträgen der OID-Wert wieder auf eine kleine Zahl
+
Schließlich besteht noch die Möglichkeit, den von einer INSERT-Anweisung
+ zur
ückgelieferten ">OID-Wert als einmaligen Wert zu verwenden.
+ Dieser Ansatz ist allerdings PostgreSQL-spezifisch; außerdem wird nach
+ ca. 4 Milliarden Einträgen der OID-Wert wieder auf eine kleine Zahl
gesetzt, ist also nicht garantiert immer einmalig oder aufsteigend.
Mit zum Beispiel dem DBD::Pg-Modul von Perl wird der OID-Wert nach einem
- $sth->excute() über $sth->{pg_oid_status} zurückgeliefert.
+ $sth->excute() über $sth->{pg_oid_status} zurückgeliefert.
-
5.3">4.15.3) Führen currval() und nextval() zu einer Race-Condition mit anderen
+
4.3">4.14.3) Führen currval() und nextval() zu einer Race-Condition mit anderen
Nutzern?
-
Nein. currval() liefert einen Wert zurück, der von Ihrem Backend
- bestimmt wird, und der anderen Benutzern nicht zur Verfügung steht.
+
Nein. currval() liefert einen Wert zurück, der von Ihrem Backend
+ bestimmt wird, und der anderen Benutzern nicht zur Verfügung steht.
-
5.4">4.15.4) Warum werden die Sequenzwerte nach einem Transaktionsabbruch nicht
- zurückgesetzt? Warum gibt es Lücken in der Nummerierung meiner
+
4.4">4.14.4) Warum werden die Sequenzwerte nach einem Transaktionsabbruch nicht
+ zurückgesetzt? Warum gibt es Lücken in der Nummerierung meiner
Sequenz-/SERIAL-Spalte?
Um die gleichzeitige Abarbeitung von Transaktionen zu verbessern, werden
- Sequenzen gerade nicht für andere Transaktionen gesperrt, sondern die
- Sequenznummern werden den laufenden Transaktionen sofort zugeteilt. Lücken in
+ Sequenzen gerade nicht für andere Transaktionen gesperrt, sondern die
+ Sequenznummern werden den laufenden Transaktionen sofort zugeteilt. Lücken in
der Sequenznummerierung werden durch abgebrochene Transaktionen verursacht.
-
6">4.16) Was ist ein OID? Was ist ein TID?
+
5">4.15) Was ist ein OID? Was ist ein TID?
OIDs sind PostgreSQLs Antwort auf eindeutige Zeilen-IDs. Jede Zeile,
die in PostgreSQL erzeugt wird, bekommt eine eindeutige OID. Alle
OIDs, die durch initdb erzeugt werden, sind kleiner als 16384 (siehe
include/access/transam.h). Alle OIDs, die durch den Benutzer erzeugt
- werden, sind größer oder gleich diesem Wert. Standardmäßig sind
+ werden, sind größer oder gleich diesem Wert. Standardmäßig sind
all OIDs nicht nur innerhalb einer Tabelle oder Datenbank,
sondern in der gesamten PostgreSQL-Installation einmalig.
PostgreSQL benutzt OIDs in seinen internen Systemtabellen, um Zeilen
- in JOINs zwischen Tabellen zu verknüpfen. Es ist möglich, einen Index
- für die OID-Spalte zu erstellen, wodurch schnellere Zugriffszeiten
- erreicht werden können. Es wird empfohlen, OID-Werte in Spalten vom Typ OID
+ in JOINs zwischen Tabellen zu verknüpfen. Es ist möglich, einen Index
+ für die OID-Spalte zu erstellen, wodurch schnellere Zugriffszeiten
+ erreicht werden können. Es wird empfohlen, OID-Werte in Spalten vom Typ OID
zu speichern.
OIDs werden allen neuen Zeilen von einem zentralen Bereich, der von
allen Datenbanken genutzt wird, zugewiesen. Nichts hindert Sie daran,
- die OID zu ändern, oder eine Kopie der Tabelle mit den originalen OIDs
+ die OID zu ändern, oder eine Kopie der Tabelle mit den originalen OIDs
anzulegen:
CREATE TABLE new_table(mycol int);
OIDs werden als 4-Byte Integer gespeichert und laufen bei
- einem Wert von ungefähr 4 Milliarden über. Niemand hat jemals davon
- berichtet, dass dies passiert wäre aber wir haben geplant, diese
- Beschränkung aufzuheben, bevor das jemand ausprobieren kann.
+ einem Wert von ungefähr 4 Milliarden über. Niemand hat jemals davon
+ berichtet, dass dies passiert wäre aber wir haben geplant, diese
+ Beschränkung aufzuheben, bevor das jemand ausprobieren kann.
TIDs werden benutzt, um bestimmte physikalische Zeilen
durch Block und Offset Werte zu identifizieren. TIDs
- verändern sich, sobald Zeilen verändert oder zurückgeladen werden. Sie
- werden in Indexeinträgen benutzt um auf die physikalischen Zeilen zu
+ verändern sich, sobald Zeilen verändert oder zurückgeladen werden. Sie
+ werden in Indexeinträgen benutzt um auf die physikalischen Zeilen zu
zeigen.
-
7">4.17) Welche Bedeutung haben die verschiedenen Ausdrücke, die in
+
6">4.16) Welche Bedeutung haben die verschiedenen Ausdrücke, die in
PostgreSQL benutzt werden (z.B. attribute, class,...)?
-
Einige der Quelltexte und die ältere Dokumentation nutzen allgemeine
- Begriffe. Hier sind einige aufgeführt:
+
Einige der Quelltexte und die ältere Dokumentation nutzen allgemeine
+ Begriffe. Hier sind einige aufgeführt:
row, record, tuple
attribute, field, column
(engl.).
-
8">4.18) Wieso bekomme ich einen Fehler: "ERROR: Memory exhausted in
+
7">4.17) Wieso bekomme ich einen Fehler: "ERROR: Memory exhausted in
AllocSetAlloc()"?
Wahrscheinlich gibt es keinen virtuellen Speicher mehr in Ihrem System
- oder Ihr Kernel hat niedrige Höchstgrenzen für bestimmte Ressourcen.
+ oder Ihr Kernel hat niedrige Höchstgrenzen für bestimmte Ressourcen.
Probieren Sie vor dem Start von postmaster folgendes:
ulimit -d 262144
limit datasize 256m
Je nach benutzter Shell wird nur einer dieser Befehle erfolgreich
- ausgeführt werden. Auf jedem Fall wird die Grenze des Datensegments für
- Prozesse erhöht werden und eventuell die erfolgreiche Ausführung der
- Abfrage ermöglichen. Falls Sie ein Problem mit dem SQL-CLient haben,
- weil das Backend zu viele Daten zurückliefert, versuchen Sie dies vor dem
+ ausgeführt werden. Auf jedem Fall wird die Grenze des Datensegments für
+ Prozesse erhöht werden und eventuell die erfolgreiche Ausführung der
+ Abfrage ermöglichen. Falls Sie ein Problem mit dem SQL-CLient haben,
+ weil das Backend zu viele Daten zurückliefert, versuchen Sie dies vor dem
Start des SQL-Clients.
-
9">4.19) Wie kann ich feststellen, welche PostgreSQL-Version bei mir läuft?
+
8">4.18) Wie kann ich feststellen, welche PostgreSQL-Version bei mir läuft?
Geben Sie in psql SELECT VERSION(); ein.
-
20">4.20) Bei "large-object"-Operationen kommt die Fehlermeldung: "invalid
+
19">4.19) Bei "large-object"-Operationen kommt die Fehlermeldung: "invalid
large obj descriptor". Warum?
Sie sollten die Anweisungen BEGIN WORK und COMMIT bei jeden Gebrauch von
Large Objects benutzen. Also um lo_open ... lo_close.
Derzeit erzwingt PostgreSQL diese Regel, indem es die Handles der
- Large Objects beim COMMIT der Transaktion schließt. So führt der erste
+ Large Objects beim COMMIT der Transaktion schließt. So führt der erste
Versuch, etwas mit dem Large Object zu machen, zu einer Meldung
"invalid large obj descriptor". Solange Sie keine Transaktionen benutzen,
- wird der Code, der in älteren PostgreSQL-Versionen funktionierte,
+ wird der Code, der in älteren PostgreSQL-Versionen funktionierte,
nun diese Fehlermeldung erzeugen.
Falls Sie eine Client-Schnittstelle wie ODBC benutzen, kann es sein,
dass die auto-commit-Option ausgeschaltet werden muss.
-
1">4.21) Wie kann ich eine Spalte erstellen, deren Default-Wert immer
+
0">4.20) Wie kann ich eine Spalte erstellen, deren Default-Wert immer
die aktuelle Uhrzeit enthalten soll?
Dazu verwenden Sie CURRENT_TIMESTAMP:
CREATE TABLE test (x int, modtime timestamp DEFAULT CURRENT_TIMESTAMP );
-
2">4.22) Warum sind meine Unterabfragen (subqueries), die IN verwenden,
+
1">4.21) Warum sind meine Unterabfragen (subqueries), die IN verwenden,
so langsam?
-
In Versionen vor 7.4 werden Unterabfragen mit der äusseren Abfrage verbunden,
- in dem für jede Reihe der äusseren Query die Ergebnisse der Unterabfrage
- sequentiell geprüft werden. Um dies zu vermeiden, kann man IN durch
+
In Versionen vor 7.4 werden Unterabfragen mit der äusseren Abfrage verbunden,
+ in dem für jede Reihe der äusseren Query die Ergebnisse der Unterabfrage
+ sequentiell geprüft werden. Um dies zu vermeiden, kann man IN durch
EXISTS ersetzen, z.B.:
SELECT *
FROM tabelle_1
WHERE EXISTS (SELECT spalte2 FROM tabelle_2 WHERE spalte1 = spalte2)
-
Damit diese Abfrage effizient durchgeführt wird, sollte für 'spalte2'
+
Damit diese Abfrage effizient durchgeführt wird, sollte für 'spalte2'
ein Index angelegt worden sein. Ab PostgreSQL 7.4 verwendet IN
- die gleichen Methoden wie die normale Tabellenverknüpfung und ist daher soger
+ die gleichen Methoden wie die normale Tabellenverknüpfung und ist daher soger
EXISTS vorzuziehen.
-
3">4.23) Wie führe ich einen OUTER JOIN durch?
+
2">4.22) Wie führe ich einen OUTER JOIN durch?
-
PostgreSQL ab der Version 7.1 unterstützt OUTER JOINs nach dem SQL-
+
PostgreSQL ab der Version 7.1 unterstützt OUTER JOINs nach dem SQL-
Standardsyntax. Hier zwei Beispiele:
SELECT *
LEFT OUTER JOIN tabelle_2 t2 USING (spalte)
- Diese identischen Abfragen verknüpfen tabelle_1 mit tabelle_2 über die
- Spalte 'spalte' und geben außerdem alle unverknüpften Zeilen in tabelle_1
- (diejenigen, die keine Entsprechung in tabelle_2 haben) zurück.
- Ein RIGHT JOIN würde hingegen alle unverknüpften Zeilen in tabelle_2 hinzufügen und
- ein FULL JOIN würde alle verknüpften Zeilen sowie jeweils alle
- unverknüpften Zeilen aus den beiden Tabellen zurückliefern. Die Angabe von
- OUTER ist nicht zwingend und kann in LEFT, RIGHT und FULL-Verknüpfungen
- weggelassen werden. Normale Verknüpfungen sind INNER JOINs.
-
-
In früheren Versionen von PostgreSQL konnten OUTER JOINs mittels UNION
+ Diese identischen Abfragen verknüpfen tabelle_1 mit tabelle_2 über die
+ Spalte 'spalte' und geben außerdem alle unverknüpften Zeilen in tabelle_1
+ (diejenigen, die keine Entsprechung in tabelle_2 haben) zurück.
+ Ein RIGHT JOIN würde hingegen alle unverknüpften Zeilen in tabelle_2 hinzufügen und
+ ein FULL JOIN würde alle verknüpften Zeilen sowie jeweils alle
+ unverknüpften Zeilen aus den beiden Tabellen zurückliefern. Die Angabe von
+ OUTER ist nicht zwingend und kann in LEFT, RIGHT und FULL-Verknüpfungen
+ weggelassen werden. Normale Verknüpfungen sind INNER JOINs.
+
+
In früheren Versionen von PostgreSQL konnten OUTER JOINs mittels UNION
und NOT IN simuliert werden. Zum Beispiel 'tabelle_1' und 'tabelle_2'
- können als LEFT OUTER JOIN auch so verknüpft werden:
+ können als LEFT OUTER JOIN auch so verknüpft werden:
SELECT t1.spalte1, t2.spalte2
FROM tabelle_1 t1, tabelle_2 t2
ORDER BY spalte1
-
4">4.24) Wie kann ich Abfragen über mehrere Datenbanken hinweg ausführen?
+
3">4.23) Wie kann ich Abfragen über mehrere Datenbanken hinweg ausführen?
Es gibt keinen Weg, innerhalb einer Abfrage auf mehr als eine Datenbank
- zuzugreifen. Da PostgreSQL datenbank-spezifische Systemkataloge lädt, ist
- eine datenbankübergreifende Abfrage nicht möglich.
+ zuzugreifen. Da PostgreSQL datenbank-spezifische Systemkataloge lädt, ist
+ eine datenbankübergreifende Abfrage nicht möglich.
-
contrib/dblink ist eine Erweiterung, die datenbankübergreifende Abfragen über
- Funktionsaufrufe ermöglicht.
+
contrib/dblink ist eine Erweiterung, die datenbankübergreifende Abfragen über
+ Funktionsaufrufe ermöglicht.
-
Es ist natürlich möglich, dass eine Client-Anwendung gleichzeitige Verbindungen
- zu verschiedenen Datenbanken aufbaut und selber Datensätze zusammenfügt.
+
Es ist natürlich möglich, dass eine Client-Anwendung gleichzeitige Verbindungen
+ zu verschiedenen Datenbanken aufbaut und selber Datensätze zusammenfügt.
-
Ab 7.3 unterstützt PostgreSQL schemas, die die Aufteilung einer Datenbank
- in mehrere logische Bereiche ermöglichen. Bei vielen Anwendungen könnten diese
- einen geeigneten Ersatz für den Zugriff auf eine andere Datenbank bieten.
+
Ab 7.3 unterstützt PostgreSQL schemas, die die Aufteilung einer Datenbank
+ in mehrere logische Bereiche ermöglichen. Bei vielen Anwendungen könnten diese
+ einen geeigneten Ersatz für den Zugriff auf eine andere Datenbank bieten.
-
5">4.25) Wie kann ich mehrere Zeilen bzw. Spalten von einer Funktion
- zurückgeben lassen?
+
4">4.24) Wie kann ich mehrere Zeilen bzw. Spalten von einer Funktion
+ zurückgeben lassen?
-
Ab 7.3 können Funktionen mehrere Zeilen und Spalten zurückgeben, vgl.:
+
Ab 7.3 können Funktionen mehrere Zeilen und Spalten zurückgeben, vgl.:
-
6">4.26) Warum kann ich temporäre Tabellen in PL/PgSQL-Funktionen nicht
- zuverlässig erstellen bzw. löschen?
+
5">4.25) Warum kann ich temporäre Tabellen in PL/PgSQL-Funktionen nicht
+ zuverlässig erstellen bzw. löschen?
PL/PgSQL verarbeitet die Inhalte einer Funktion in eine Cache. Dies hat
- eine unangenehme Nebenwirkung, nämlich dass wenn eine PL/PgSQL-
- Funktion auf eine temporäre Tabelle zugreift, und diese Tabelle
- anschließend gelöscht bzw. neu erstellt wird, die Funktion
+ eine unangenehme Nebenwirkung, nämlich dass wenn eine PL/PgSQL-
+ Funktion auf eine temporäre Tabelle zugreift, und diese Tabelle
+ anschließend gelöscht bzw. neu erstellt wird, die Funktion
fehlschlagen wird, da die gecachten Funktionsinhalte noch auf die alte
- temporäre Tabelle zeigen.
+ temporäre Tabelle zeigen.
-
Die Lösung für diese Probleme besteht darin, in der PL/PgSQL Funktion mittels
- EXECUTE auf temporäre Tabellen zuzugreifen. Diese bewirkt, dass bei
+
Die Lösung für diese Probleme besteht darin, in der PL/PgSQL Funktion mittels
+ EXECUTE auf temporäre Tabellen zuzugreifen. Diese bewirkt, dass bei
jedem Funktionsruf die betreffende Abfrage neu geparst wird.
-
4.27) Welche Möglichkeiten zur Datenbank-Replikation gibt es?
-
-
Es existieren mehrere Ansätze zur Master/Slave-Replikation in PostgreSQL.
- In diesen werden Datenänderungen in der Master-Datenbank durchgeführt und an
- Slave-Datenbanken weitergeleitet. Informationen über diese Lösungen
- befinden sich auf der folgenden Seite (unten):
-
-
4.28) Welche Möglichkeiten zur Verschlüsselung gibt es?
+
4.26) Welche Möglichkeiten zur Verschlüsselung gibt es?
-
contrib/pgcrypto enthält diverse Funktionen für die Benützung mit
+
contrib/pgcrypto enthält diverse Funktionen für die Benützung mit
SQL-Abfragen.
Um Verbindungen zwischen dem Server und Client-Anwendungen zu
- verschlüsseln, muss in der Server-Konfigurationsdatei postgresql.conf
+ verschlüsseln, muss in der Server-Konfigurationsdatei postgresql.conf
die ssl-Option auf true (Voreinstellung: false) gesetzt werden
und ein passender host- bzw. hostssl-Eintrag muss in
pg_hba.conf vorhanden sein. Zudem muss die sslmode-Einstellung
beim Client nicht auf disable gesetzt werden. (Bitte beachten Sie auch,
- daß neben der eingebauten SSL-Unterstützung verschlüsselte Verbindungen
- auch über externe Anwendungen wie stunnel oder ssh aufgebaut werden können).
+ daß neben der eingebauten SSL-Unterstützung verschlüsselte Verbindungen
+ auch über externe Anwendungen wie stunnel oder ssh aufgebaut werden können).
-
Die Passwörter der Datenbanknutzer werden ab Version 7.3 automatisch
- verschlüsselt (in früheren Versionen muß der Parameter PASSWORD_ENCRYPTION
+
Die Passwörter der Datenbanknutzer werden ab Version 7.3 automatisch
+ verschlüsselt (in früheren Versionen muß der Parameter PASSWORD_ENCRYPTION
in postgresql.conf explizit eingeschaltet werden).
-
Betrieb des Servers auf einem verschlüsselten Dateisystem.
+
Betrieb des Servers auf einem verschlüsselten Dateisystem.
in einem eigenen Testprogramm.
5.2) Wie kann ich praktische neue Typen und Funktionen zu PostgreSQL
- hinzufügen?
+ hinzufügen?
-
Senden Sie Ihre Beiträge an die Mailing Liste pgsql-hackers, und sie
- werden nach Prüfung eventuell ins contrib/ Verzeichnis des Quellcodes
+
Senden Sie Ihre Beiträge an die Mailing Liste pgsql-hackers, und sie
+ werden nach Prüfung eventuell ins contrib/ Verzeichnis des Quellcodes
aufgenommen werden.
-
5.3) Wie schreibe ich eine Funktion in C, die einen Tupel zurückliefert?
+
5.3) Wie schreibe ich eine Funktion in C, die einen Tupel zurückliefert?
-
Ab PostgreSQL 7.3 werden Funktionen, die Tupel zurückliefern, in C, PL/PgSQL und SQL
- unterstützt. Der Programmer's Guide enthält weitere Informationen
+
Ab PostgreSQL 7.3 werden Funktionen, die Tupel zurückliefern, in C, PL/PgSQL und SQL
+ unterstützt. Der Programmer's Guide enthält weitere Informationen
dazu. Ein Bespiel einer solchen Funktion befindet sich in contrib/tablefunc.
-
5.4) Ich habe eine der Quellendateien geändert. Warum macht sich
- die Änderung beim erneuten Kompilieren nicht bemerkbar?
+
5.4) Ich habe eine der Quellendateien geändert. Warum macht sich
+ die Änderung beim erneuten Kompilieren nicht bemerkbar?
-
Die Makefiles enthalten nicht die richtigen Abhängigkeiten für include-
- Dateien. Sie müssen ein "make clean" und dann ein weiteres "make" ausführen.
- Wenn Sie gcc benutzen, können Sie die "--enable-depend"-Option des configure-
- Skripts benutzen, damit der Compiler die Abhängigkeiten automatisch
+
Die Makefiles enthalten nicht die richtigen Abhängigkeiten für include-
+ Dateien. Sie müssen ein "make clean" und dann ein weiteres "make" ausführen.
+ Wenn Sie gcc benutzen, können Sie die "--enable-depend"-Option des configure-
+ Skripts benutzen, damit der Compiler die Abhängigkeiten automatisch
ermittelt.
-
Anmerkungen des Übersetzers
+
Anmerkungen des Übersetzers
-
Die englische Vorlage dieser FAQ wird ständig überarbeitet. Daher liegt
- die Übersetzung nicht immer auf dem aktuellsten Stand.
+
Die englische Vorlage dieser FAQ wird ständig überarbeitet. Daher liegt
+ die Übersetzung nicht immer auf dem aktuellsten Stand.
-
Die aktuellste Version der deutschen Übersetzung befindet sich immer unter
+
Die aktuellste Version der deutschen Übersetzung befindet sich immer unter
- Diese "Arbeitsversion" enthält eventuell Änderungen, die noch nicht auf der
+ Diese "Arbeitsversion" enthält eventuell Änderungen, die noch nicht auf der
PostgreSQL-Website eingebunden worden sind.
-
Über Verbesserungshinweise und Korrekturvorschläge sowie Verständnisfragen
+
Über Verbesserungshinweise und Korrekturvorschläge sowie Verständnisfragen
zum Inhalt der FAQ freue ich mich. Ich nehme auch allgemeine Fragen zu PostgreSQL gerne
- entgegen, verweise jedoch auf die Mailing-Listen als schnelle und zuverlässige
+ entgegen, verweise jedoch auf die Mailing-Listen als schnelle und zuverlässige
Anlaufstellen.