Don't use SGML empty tags
authorPeter Eisentraut
Mon, 9 Oct 2017 01:44:17 +0000 (21:44 -0400)
committerPeter Eisentraut
Tue, 17 Oct 2017 19:10:33 +0000 (15:10 -0400)
For DocBook XML compatibility, don't use SGML empty tags () anymore,
replace by the full tag name.  Add a warning option to catch future
occurrences.

Alexander Lakhin, Jürgen Purtz

337 files changed:
doc/src/sgml/Makefile
doc/src/sgml/acronyms.sgml
doc/src/sgml/adminpack.sgml
doc/src/sgml/advanced.sgml
doc/src/sgml/amcheck.sgml
doc/src/sgml/arch-dev.sgml
doc/src/sgml/array.sgml
doc/src/sgml/auth-delay.sgml
doc/src/sgml/auto-explain.sgml
doc/src/sgml/backup.sgml
doc/src/sgml/bgworker.sgml
doc/src/sgml/biblio.sgml
doc/src/sgml/bki.sgml
doc/src/sgml/bloom.sgml
doc/src/sgml/brin.sgml
doc/src/sgml/btree-gin.sgml
doc/src/sgml/btree-gist.sgml
doc/src/sgml/catalogs.sgml
doc/src/sgml/charset.sgml
doc/src/sgml/citext.sgml
doc/src/sgml/client-auth.sgml
doc/src/sgml/config.sgml
doc/src/sgml/contrib-spi.sgml
doc/src/sgml/contrib.sgml
doc/src/sgml/cube.sgml
doc/src/sgml/custom-scan.sgml
doc/src/sgml/datatype.sgml
doc/src/sgml/datetime.sgml
doc/src/sgml/dblink.sgml
doc/src/sgml/ddl.sgml
doc/src/sgml/dfunc.sgml
doc/src/sgml/dict-int.sgml
doc/src/sgml/dict-xsyn.sgml
doc/src/sgml/diskusage.sgml
doc/src/sgml/dml.sgml
doc/src/sgml/docguide.sgml
doc/src/sgml/earthdistance.sgml
doc/src/sgml/ecpg.sgml
doc/src/sgml/errcodes.sgml
doc/src/sgml/event-trigger.sgml
doc/src/sgml/extend.sgml
doc/src/sgml/external-projects.sgml
doc/src/sgml/fdwhandler.sgml
doc/src/sgml/file-fdw.sgml
doc/src/sgml/func.sgml
doc/src/sgml/fuzzystrmatch.sgml
doc/src/sgml/generate-errcodes-table.pl
doc/src/sgml/generic-wal.sgml
doc/src/sgml/geqo.sgml
doc/src/sgml/gin.sgml
doc/src/sgml/gist.sgml
doc/src/sgml/high-availability.sgml
doc/src/sgml/history.sgml
doc/src/sgml/hstore.sgml
doc/src/sgml/indexam.sgml
doc/src/sgml/indices.sgml
doc/src/sgml/info.sgml
doc/src/sgml/information_schema.sgml
doc/src/sgml/install-windows.sgml
doc/src/sgml/installation.sgml
doc/src/sgml/intagg.sgml
doc/src/sgml/intarray.sgml
doc/src/sgml/intro.sgml
doc/src/sgml/isn.sgml
doc/src/sgml/json.sgml
doc/src/sgml/libpq.sgml
doc/src/sgml/lo.sgml
doc/src/sgml/lobj.sgml
doc/src/sgml/logicaldecoding.sgml
doc/src/sgml/ltree.sgml
doc/src/sgml/maintenance.sgml
doc/src/sgml/manage-ag.sgml
doc/src/sgml/monitoring.sgml
doc/src/sgml/mvcc.sgml
doc/src/sgml/nls.sgml
doc/src/sgml/notation.sgml
doc/src/sgml/oid2name.sgml
doc/src/sgml/pageinspect.sgml
doc/src/sgml/parallel.sgml
doc/src/sgml/perform.sgml
doc/src/sgml/pgbuffercache.sgml
doc/src/sgml/pgcrypto.sgml
doc/src/sgml/pgfreespacemap.sgml
doc/src/sgml/pgprewarm.sgml
doc/src/sgml/pgrowlocks.sgml
doc/src/sgml/pgstandby.sgml
doc/src/sgml/pgstatstatements.sgml
doc/src/sgml/pgstattuple.sgml
doc/src/sgml/pgtrgm.sgml
doc/src/sgml/pgvisibility.sgml
doc/src/sgml/planstats.sgml
doc/src/sgml/plhandler.sgml
doc/src/sgml/plperl.sgml
doc/src/sgml/plpgsql.sgml
doc/src/sgml/plpython.sgml
doc/src/sgml/pltcl.sgml
doc/src/sgml/postgres-fdw.sgml
doc/src/sgml/postgres.sgml
doc/src/sgml/problems.sgml
doc/src/sgml/protocol.sgml
doc/src/sgml/queries.sgml
doc/src/sgml/query.sgml
doc/src/sgml/rangetypes.sgml
doc/src/sgml/recovery-config.sgml
doc/src/sgml/ref/abort.sgml
doc/src/sgml/ref/alter_aggregate.sgml
doc/src/sgml/ref/alter_collation.sgml
doc/src/sgml/ref/alter_conversion.sgml
doc/src/sgml/ref/alter_database.sgml
doc/src/sgml/ref/alter_default_privileges.sgml
doc/src/sgml/ref/alter_domain.sgml
doc/src/sgml/ref/alter_extension.sgml
doc/src/sgml/ref/alter_foreign_data_wrapper.sgml
doc/src/sgml/ref/alter_foreign_table.sgml
doc/src/sgml/ref/alter_function.sgml
doc/src/sgml/ref/alter_group.sgml
doc/src/sgml/ref/alter_index.sgml
doc/src/sgml/ref/alter_materialized_view.sgml
doc/src/sgml/ref/alter_opclass.sgml
doc/src/sgml/ref/alter_operator.sgml
doc/src/sgml/ref/alter_opfamily.sgml
doc/src/sgml/ref/alter_publication.sgml
doc/src/sgml/ref/alter_role.sgml
doc/src/sgml/ref/alter_schema.sgml
doc/src/sgml/ref/alter_sequence.sgml
doc/src/sgml/ref/alter_server.sgml
doc/src/sgml/ref/alter_statistics.sgml
doc/src/sgml/ref/alter_subscription.sgml
doc/src/sgml/ref/alter_system.sgml
doc/src/sgml/ref/alter_table.sgml
doc/src/sgml/ref/alter_tablespace.sgml
doc/src/sgml/ref/alter_trigger.sgml
doc/src/sgml/ref/alter_tsconfig.sgml
doc/src/sgml/ref/alter_tsdictionary.sgml
doc/src/sgml/ref/alter_tsparser.sgml
doc/src/sgml/ref/alter_tstemplate.sgml
doc/src/sgml/ref/alter_type.sgml
doc/src/sgml/ref/alter_user_mapping.sgml
doc/src/sgml/ref/alter_view.sgml
doc/src/sgml/ref/analyze.sgml
doc/src/sgml/ref/begin.sgml
doc/src/sgml/ref/close.sgml
doc/src/sgml/ref/cluster.sgml
doc/src/sgml/ref/clusterdb.sgml
doc/src/sgml/ref/comment.sgml
doc/src/sgml/ref/commit.sgml
doc/src/sgml/ref/commit_prepared.sgml
doc/src/sgml/ref/copy.sgml
doc/src/sgml/ref/create_access_method.sgml
doc/src/sgml/ref/create_aggregate.sgml
doc/src/sgml/ref/create_cast.sgml
doc/src/sgml/ref/create_collation.sgml
doc/src/sgml/ref/create_conversion.sgml
doc/src/sgml/ref/create_database.sgml
doc/src/sgml/ref/create_domain.sgml
doc/src/sgml/ref/create_event_trigger.sgml
doc/src/sgml/ref/create_extension.sgml
doc/src/sgml/ref/create_foreign_data_wrapper.sgml
doc/src/sgml/ref/create_foreign_table.sgml
doc/src/sgml/ref/create_function.sgml
doc/src/sgml/ref/create_index.sgml
doc/src/sgml/ref/create_language.sgml
doc/src/sgml/ref/create_materialized_view.sgml
doc/src/sgml/ref/create_opclass.sgml
doc/src/sgml/ref/create_operator.sgml
doc/src/sgml/ref/create_opfamily.sgml
doc/src/sgml/ref/create_policy.sgml
doc/src/sgml/ref/create_publication.sgml
doc/src/sgml/ref/create_role.sgml
doc/src/sgml/ref/create_rule.sgml
doc/src/sgml/ref/create_schema.sgml
doc/src/sgml/ref/create_sequence.sgml
doc/src/sgml/ref/create_server.sgml
doc/src/sgml/ref/create_statistics.sgml
doc/src/sgml/ref/create_subscription.sgml
doc/src/sgml/ref/create_table.sgml
doc/src/sgml/ref/create_table_as.sgml
doc/src/sgml/ref/create_tablespace.sgml
doc/src/sgml/ref/create_trigger.sgml
doc/src/sgml/ref/create_tsconfig.sgml
doc/src/sgml/ref/create_tstemplate.sgml
doc/src/sgml/ref/create_type.sgml
doc/src/sgml/ref/create_user.sgml
doc/src/sgml/ref/create_user_mapping.sgml
doc/src/sgml/ref/create_view.sgml
doc/src/sgml/ref/createdb.sgml
doc/src/sgml/ref/createuser.sgml
doc/src/sgml/ref/declare.sgml
doc/src/sgml/ref/delete.sgml
doc/src/sgml/ref/discard.sgml
doc/src/sgml/ref/do.sgml
doc/src/sgml/ref/drop_access_method.sgml
doc/src/sgml/ref/drop_aggregate.sgml
doc/src/sgml/ref/drop_collation.sgml
doc/src/sgml/ref/drop_conversion.sgml
doc/src/sgml/ref/drop_database.sgml
doc/src/sgml/ref/drop_domain.sgml
doc/src/sgml/ref/drop_extension.sgml
doc/src/sgml/ref/drop_foreign_data_wrapper.sgml
doc/src/sgml/ref/drop_foreign_table.sgml
doc/src/sgml/ref/drop_function.sgml
doc/src/sgml/ref/drop_index.sgml
doc/src/sgml/ref/drop_language.sgml
doc/src/sgml/ref/drop_opclass.sgml
doc/src/sgml/ref/drop_opfamily.sgml
doc/src/sgml/ref/drop_owned.sgml
doc/src/sgml/ref/drop_publication.sgml
doc/src/sgml/ref/drop_role.sgml
doc/src/sgml/ref/drop_schema.sgml
doc/src/sgml/ref/drop_sequence.sgml
doc/src/sgml/ref/drop_server.sgml
doc/src/sgml/ref/drop_subscription.sgml
doc/src/sgml/ref/drop_table.sgml
doc/src/sgml/ref/drop_tablespace.sgml
doc/src/sgml/ref/drop_tsconfig.sgml
doc/src/sgml/ref/drop_tsdictionary.sgml
doc/src/sgml/ref/drop_tsparser.sgml
doc/src/sgml/ref/drop_tstemplate.sgml
doc/src/sgml/ref/drop_type.sgml
doc/src/sgml/ref/drop_user_mapping.sgml
doc/src/sgml/ref/drop_view.sgml
doc/src/sgml/ref/dropdb.sgml
doc/src/sgml/ref/dropuser.sgml
doc/src/sgml/ref/ecpg-ref.sgml
doc/src/sgml/ref/end.sgml
doc/src/sgml/ref/execute.sgml
doc/src/sgml/ref/explain.sgml
doc/src/sgml/ref/fetch.sgml
doc/src/sgml/ref/grant.sgml
doc/src/sgml/ref/import_foreign_schema.sgml
doc/src/sgml/ref/initdb.sgml
doc/src/sgml/ref/insert.sgml
doc/src/sgml/ref/listen.sgml
doc/src/sgml/ref/load.sgml
doc/src/sgml/ref/lock.sgml
doc/src/sgml/ref/move.sgml
doc/src/sgml/ref/notify.sgml
doc/src/sgml/ref/pg_basebackup.sgml
doc/src/sgml/ref/pg_config-ref.sgml
doc/src/sgml/ref/pg_controldata.sgml
doc/src/sgml/ref/pg_ctl-ref.sgml
doc/src/sgml/ref/pg_dump.sgml
doc/src/sgml/ref/pg_dumpall.sgml
doc/src/sgml/ref/pg_isready.sgml
doc/src/sgml/ref/pg_receivewal.sgml
doc/src/sgml/ref/pg_recvlogical.sgml
doc/src/sgml/ref/pg_resetwal.sgml
doc/src/sgml/ref/pg_restore.sgml
doc/src/sgml/ref/pg_rewind.sgml
doc/src/sgml/ref/pg_waldump.sgml
doc/src/sgml/ref/pgarchivecleanup.sgml
doc/src/sgml/ref/pgbench.sgml
doc/src/sgml/ref/pgtestfsync.sgml
doc/src/sgml/ref/pgtesttiming.sgml
doc/src/sgml/ref/pgupgrade.sgml
doc/src/sgml/ref/postgres-ref.sgml
doc/src/sgml/ref/postmaster.sgml
doc/src/sgml/ref/prepare.sgml
doc/src/sgml/ref/prepare_transaction.sgml
doc/src/sgml/ref/psql-ref.sgml
doc/src/sgml/ref/reassign_owned.sgml
doc/src/sgml/ref/refresh_materialized_view.sgml
doc/src/sgml/ref/reindex.sgml
doc/src/sgml/ref/reindexdb.sgml
doc/src/sgml/ref/release_savepoint.sgml
doc/src/sgml/ref/reset.sgml
doc/src/sgml/ref/revoke.sgml
doc/src/sgml/ref/rollback.sgml
doc/src/sgml/ref/rollback_prepared.sgml
doc/src/sgml/ref/rollback_to.sgml
doc/src/sgml/ref/savepoint.sgml
doc/src/sgml/ref/security_label.sgml
doc/src/sgml/ref/select.sgml
doc/src/sgml/ref/set.sgml
doc/src/sgml/ref/set_constraints.sgml
doc/src/sgml/ref/set_role.sgml
doc/src/sgml/ref/set_session_auth.sgml
doc/src/sgml/ref/set_transaction.sgml
doc/src/sgml/ref/show.sgml
doc/src/sgml/ref/start_transaction.sgml
doc/src/sgml/ref/truncate.sgml
doc/src/sgml/ref/unlisten.sgml
doc/src/sgml/ref/update.sgml
doc/src/sgml/ref/vacuum.sgml
doc/src/sgml/ref/vacuumdb.sgml
doc/src/sgml/ref/values.sgml
doc/src/sgml/regress.sgml
doc/src/sgml/release-10.sgml
doc/src/sgml/release-7.4.sgml
doc/src/sgml/release-8.0.sgml
doc/src/sgml/release-8.1.sgml
doc/src/sgml/release-8.2.sgml
doc/src/sgml/release-8.3.sgml
doc/src/sgml/release-8.4.sgml
doc/src/sgml/release-9.0.sgml
doc/src/sgml/release-9.1.sgml
doc/src/sgml/release-9.2.sgml
doc/src/sgml/release-9.3.sgml
doc/src/sgml/release-9.4.sgml
doc/src/sgml/release-9.5.sgml
doc/src/sgml/release-9.6.sgml
doc/src/sgml/release-old.sgml
doc/src/sgml/release.sgml
doc/src/sgml/rowtypes.sgml
doc/src/sgml/rules.sgml
doc/src/sgml/runtime.sgml
doc/src/sgml/seg.sgml
doc/src/sgml/sepgsql.sgml
doc/src/sgml/sourcerepo.sgml
doc/src/sgml/sources.sgml
doc/src/sgml/spgist.sgml
doc/src/sgml/spi.sgml
doc/src/sgml/sslinfo.sgml
doc/src/sgml/start.sgml
doc/src/sgml/storage.sgml
doc/src/sgml/syntax.sgml
doc/src/sgml/tablefunc.sgml
doc/src/sgml/tablesample-method.sgml
doc/src/sgml/tcn.sgml
doc/src/sgml/test-decoding.sgml
doc/src/sgml/textsearch.sgml
doc/src/sgml/trigger.sgml
doc/src/sgml/tsm-system-rows.sgml
doc/src/sgml/tsm-system-time.sgml
doc/src/sgml/typeconv.sgml
doc/src/sgml/unaccent.sgml
doc/src/sgml/user-manag.sgml
doc/src/sgml/uuid-ossp.sgml
doc/src/sgml/vacuumlo.sgml
doc/src/sgml/wal.sgml
doc/src/sgml/xaggr.sgml
doc/src/sgml/xfunc.sgml
doc/src/sgml/xindex.sgml
doc/src/sgml/xml2.sgml
doc/src/sgml/xoper.sgml
doc/src/sgml/xplang.sgml
doc/src/sgml/xtypes.sgml

index 164c00bb63b0758df2cd27edae0db75f85baba29..428eb569fc477e9ebcd1aa0834c5ddde1ef89871 100644 (file)
@@ -66,10 +66,11 @@ ALLSGML := $(wildcard $(srcdir)/*.sgml $(srcdir)/ref/*.sgml) $(GENERATED_SGML)
 # Enable some extra warnings
 # -wfully-tagged needed to throw a warning on missing tags
 # for older tool chains, 2007-08-31
-override SPFLAGS += -wall -wno-unused-param -wno-empty -wfully-tagged
+override SPFLAGS += -wall -wno-unused-param -wfully-tagged
 # Additional warnings for XML compatibility.  The conditional is meant
 # to detect whether we are using OpenSP rather than the ancient
 # original SP.
+override SPFLAGS += -wempty
 ifneq (,$(filter o%,$(notdir $(OSX))))
 override SPFLAGS += -wdata-delim -winstance-ignore-ms -winstance-include-ms -winstance-param-entity
 endif
index 29f85e08468d310e6a61a0fa0aeadea94d4b4eef..35514d4d9ac82bb153858c08103ee45f1e3eae63 100644 (file)
@@ -4,8 +4,8 @@
  Acronyms
 
  
-  This is a list of acronyms commonly used in the PostgreSQL
-  documentation and in discussions about PostgreSQL.
+  This is a list of acronyms commonly used in the PostgreSQLproductname>
+  documentation and in discussions about PostgreSQLproductname>.
 
   
 
       
       url="http://en.wikipedia.org/wiki/Data_Definition_Language">Data
       Definition Language, SQL commands such as CREATE
-      TABLE>, ALTER USER>
+      TABLEcommand>, ALTER USER>
      
     
    
      
       
       url="http://en.wikipedia.org/wiki/Data_Manipulation_Language">Data
-      Manipulation Language, SQL commands such as INSERT,
-      UPDATE>, DELETE>
+      Manipulation Language, SQL commands such as INSERTcommand>,
+      UPDATEcommand>, DELETE>
      
     
    
     
      
       Grand Unified Configuration,
-      the PostgreSQL subsystem that handles server configuration
+      the PostgreSQLproductname> subsystem that handles server configuration
      
     
    
     LSN
     
      
-      Log Sequence Number, see pg_lsn
+      Log Sequence Number, see pg_lsntype>
       and WAL Internals.
      
     
     PGSQL
     
      
-      PostgreSQL
+      PostgreSQLproductname>
      
     
    
     PGXS
     
      
-      PostgreSQL Extension System
+      PostgreSQLproductname> Extension System
      
     
    
index fddf90c4a56f371f753f26328fb0ef3b7dc54fbc..b27a4a325d9fe755e74d147eda000463cb34008b 100644 (file)
@@ -8,8 +8,8 @@
  
 
  
-  adminpack provides a number of support functions which
-  pgAdmin and other administration and management tools can
+  adminpackfilename> provides a number of support functions which
+  pgAdminapplication> and other administration and management tools can
   use to provide additional functionality, such as remote management
   of server log files.
   Use of all these functions is restricted to superusers.
@@ -25,7 +25,7 @@
  
 
  
-  <filename>adminpack</> Functions
+  <filename>adminpack</<span class="marked">filename</span>> Functions
   
    
     Name Return Type Description
@@ -58,7 +58,7 @@
      pg_catalog.pg_logdir_ls()
      setof record
      
-      List the log files in the log_directory directory
+      List the log files in the log_directoryvarname> directory
      
     
    
@@ -69,9 +69,9 @@
   pg_file_write
  
  
-  pg_file_write> writes the specified data> into
-  the file named by filename>.  If append> is
-  false, the file must not already exist.  If append is true,
+  pg_file_writefunction> writes the specified data> into
+  the file named by filenameparameter>.  If append> is
+  false, the file must not already exist.  If appendparameter> is true,
   the file can already exist, and will be appended to if so.
   Returns the number of bytes written.
  
   pg_file_rename
  
  
-  pg_file_rename> renames a file.  If archivename>
-  is omitted or NULL, it simply renames oldname
-  to newname (which must not already exist).
-  If archivename is provided, it first
-  renames newname> to archivename> (which must
-  not already exist), and then renames oldname
-  to newname.  In event of failure of the second rename step,
-  it will try to rename archivename back
-  to newname before reporting the error.
+  pg_file_renamefunction> renames a file.  If archivename>
+  is omitted or NULL, it simply renames oldnameparameter>
+  to newnameparameter> (which must not already exist).
+  If archivenameparameter> is provided, it first
+  renames newnameparameter> to archivename> (which must
+  not already exist), and then renames oldnameparameter>
+  to newnameparameter>.  In event of failure of the second rename step,
+  it will try to rename archivenameparameter> back
+  to newnameparameter> before reporting the error.
   Returns true on success, false if the source file(s) are not present or
   not writable; other cases throw errors.
  
   pg_file_unlink
  
  
-  pg_file_unlink removes the specified file.
+  pg_file_unlinkfunction> removes the specified file.
   Returns true on success, false if the specified file is not present
-  or the unlink() call fails; other cases throw errors.
+  or the unlink()function> call fails; other cases throw errors.
  
 
  
   pg_logdir_ls
  
  
-  pg_logdir_ls returns the start timestamps and path
+  pg_logdir_lsfunction> returns the start timestamps and path
   names of all the log files in the 
   directory.  The  parameter must have its
-  default setting (postgresql-%Y-%m-%d_%H%M%S.log) to use this
+  default setting (postgresql-%Y-%m-%d_%H%M%S.logliteral>) to use this
   function.
  
 
   and should not be used in new applications; instead use those shown
   in 
   and .  These functions are
-  provided in adminpack only for compatibility with old
-  versions of pgAdmin.
+  provided in adminpackfilename> only for compatibility with old
+  versions of pgAdminapplication>.
  
 
  
-  Deprecated <filename>adminpack</> Functions
+  Deprecated <filename>adminpack</<span class="marked">filename</span>> Functions
   
    
     Name Return Type Description
      pg_catalog.pg_file_read(filename text, offset bigint, nbytes bigint)
      text
      
-      Alternate name for pg_read_file()
+      Alternate name for pg_read_file()function>
      
     
     
      pg_catalog.pg_file_length(filename text)
      bigint
      
-      Same as size column returned
-      by pg_stat_file()
+      Same as sizestructfield> column returned
+      by pg_stat_file()function>
      
     
     
      pg_catalog.pg_logfile_rotate()
      integer
      
-      Alternate name for pg_rotate_logfile(), but note that it
+      Alternate name for pg_rotate_logfile()function>, but note that it
       returns integer 0 or 1 rather than boolean
      
     
index f47c01987be2c7cdc5e7e8f07cd4ad20f43063be..bf87df4dcb1e374ca1c716eca4ab557e20ae6e91 100644 (file)
@@ -145,7 +145,7 @@ DETAIL:  Key (city)=(Berkeley) is not present in table "cities".
    
 
    
-    Transactions are a fundamental concept of all database
+    Transactionsfirstterm> are a fundamental concept of all database
     systems.  The essential point of a transaction is that it bundles
     multiple steps into a single, all-or-nothing operation.  The intermediate
     states between the steps are not visible to other concurrent transactions,
@@ -182,8 +182,8 @@ UPDATE branches SET balance = balance + 100.00
     remain a happy customer if she was debited without Bob being credited.
     We need a guarantee that if something goes wrong partway through the
     operation, none of the steps executed so far will take effect.  Grouping
-    the updates into a transaction gives us this guarantee.
-    A transaction is said to be atomic: from the point of
+    the updates into a transactionfirstterm> gives us this guarantee.
+    A transaction is said to be atomicfirstterm>: from the point of
     view of other transactions, it either happens completely or not at all.
    
 
@@ -216,9 +216,9 @@ UPDATE branches SET balance = balance + 100.00
    
 
    
-    In PostgreSQL, a transaction is set up by surrounding
+    In PostgreSQLproductname>, a transaction is set up by surrounding
     the SQL commands of the transaction with
-    BEGIN> and COMMIT> commands.  So our banking
+    BEGINcommand> and COMMIT> commands.  So our banking
     transaction would actually look like:
 
 
@@ -233,23 +233,23 @@ COMMIT;
    
     If, partway through the transaction, we decide we do not want to
     commit (perhaps we just noticed that Alice's balance went negative),
-    we can issue the command ROLLBACK instead of
-    COMMIT, and all our updates so far will be canceled.
+    we can issue the command ROLLBACKcommand> instead of
+    COMMITcommand>, and all our updates so far will be canceled.
    
 
    
-    PostgreSQL actually treats every SQL statement as being
-    executed within a transaction.  If you do not issue a BEGIN
+    PostgreSQLproductname> actually treats every SQL statement as being
+    executed within a transaction.  If you do not issue a BEGINcommand>
     command,
-    then each individual statement has an implicit BEGIN and
-    (if successful) COMMIT wrapped around it.  A group of
-    statements surrounded by BEGIN> and COMMIT>
-    is sometimes called a transaction block.
+    then each individual statement has an implicit BEGINcommand> and
+    (if successful) COMMITcommand> wrapped around it.  A group of
+    statements surrounded by BEGINcommand> and COMMIT>
+    is sometimes called a transaction blockfirstterm>.
    
 
    
     
-     Some client libraries issue BEGIN> and COMMIT>
+     Some client libraries issue BEGINcommand> and COMMIT>
      commands automatically, so that you might get the effect of transaction
      blocks without asking.  Check the documentation for the interface
      you are using.
@@ -258,11 +258,11 @@ COMMIT;
 
    
     It's possible to control the statements in a transaction in a more
-    granular fashion through the use of savepoints.  Savepoints
+    granular fashion through the use of savepointsfirstterm>.  Savepoints
     allow you to selectively discard parts of the transaction, while
     committing the rest.  After defining a savepoint with
-    SAVEPOINT, you can if needed roll back to the savepoint
-    with ROLLBACK TO.  All the transaction's database changes
+    SAVEPOINTcommand>, you can if needed roll back to the savepoint
+    with ROLLBACK TOcommand>.  All the transaction's database changes
     between defining the savepoint and rolling back to it are discarded, but
     changes earlier than the savepoint are kept.
    
@@ -308,7 +308,7 @@ COMMIT;
    
     This example is, of course, oversimplified, but there's a lot of control
     possible in a transaction block through the use of savepoints.
-    Moreover, ROLLBACK TO is the only way to regain control of a
+    Moreover, ROLLBACK TOcommand> is the only way to regain control of a
     transaction block that was put in aborted state by the
     system due to an error, short of rolling it back completely and starting
     again.
@@ -325,7 +325,7 @@ COMMIT;
    
 
    
-    A window function performs a calculation across a set of
+    A window functionfirstterm> performs a calculation across a set of
     table rows that are somehow related to the current row.  This is comparable
     to the type of calculation that can be done with an aggregate function.
     However, window functions do not cause rows to become grouped into a single
@@ -360,31 +360,31 @@ SELECT depname, empno, salary, avg(salary) OVER (PARTITION BY depname) FROM emps
 
 
     The first three output columns come directly from the table
-    empsalary, and there is one output row for each row in the
+    empsalarystructname>, and there is one output row for each row in the
     table.  The fourth column represents an average taken across all the table
-    rows that have the same depname value as the current row.
-    (This actually is the same function as the non-window avg
-    aggregate, but the OVER clause causes it to be
+    rows that have the same depnamestructfield> value as the current row.
+    (This actually is the same function as the non-window avgfunction>
+    aggregate, but the OVERliteral> clause causes it to be
     treated as a window function and computed across the window frame.)
    
 
    
-    A window function call always contains an OVER clause
+    A window function call always contains an OVERliteral> clause
     directly following the window function's name and argument(s).  This is what
     syntactically distinguishes it from a normal function or non-window
-    aggregate.  The OVER clause determines exactly how the
+    aggregate.  The OVERliteral> clause determines exactly how the
     rows of the query are split up for processing by the window function.
-    The PARTITION BY> clause within OVER>
+    The PARTITION BYliteral> clause within OVER>
     divides the rows into groups, or partitions, that share the same
-    values of the PARTITION BY expression(s).  For each row,
+    values of the PARTITION BYliteral> expression(s).  For each row,
     the window function is computed across the rows that fall into the
     same partition as the current row.
    
 
    
     You can also control the order in which rows are processed by
-    window functions using ORDER BY> within OVER>.
-    (The window ORDER BY does not even have to match the
+    window functions using ORDER BYliteral> within OVER>.
+    (The window ORDER BYliteral> does not even have to match the
     order in which the rows are output.)  Here is an example:
 
 
@@ -409,39 +409,39 @@ FROM empsalary;
 (10 rows)
 
 
-    As shown here, the rank function produces a numerical rank
-    for each distinct ORDER BY value in the current row's
-    partition, using the order defined by the ORDER BY clause.
-    rank needs no explicit parameter, because its behavior
-    is entirely determined by the OVER clause.
+    As shown here, the rankfunction> function produces a numerical rank
+    for each distinct ORDER BYliteral> value in the current row's
+    partition, using the order defined by the ORDER BYliteral> clause.
+    rankfunction> needs no explicit parameter, because its behavior
+    is entirely determined by the OVERliteral> clause.
    
 
    
     The rows considered by a window function are those of the virtual
-    table> produced by the query's FROM> clause as filtered by its
-    WHERE>, GROUP BY, and HAVING> clauses
+    tablequote> produced by the query's FROM> clause as filtered by its
+    WHEREliteral>, GROUP BY, and HAVING> clauses
     if any.  For example, a row removed because it does not meet the
-    WHERE condition is not seen by any window function.
+    WHEREliteral> condition is not seen by any window function.
     A query can contain multiple window functions that slice up the data
-    in different ways using different OVER clauses, but
+    in different ways using different OVERliteral> clauses, but
     they all act on the same collection of rows defined by this virtual table.
    
 
    
-    We already saw that ORDER BY can be omitted if the ordering
+    We already saw that ORDER BYliteral> can be omitted if the ordering
     of rows is not important.  It is also possible to omit PARTITION
-    BY, in which case there is a single partition containing all rows.
+    BYliteral>, in which case there is a single partition containing all rows.
    
 
    
     There is another important concept associated with window functions:
     for each row, there is a set of rows within its partition called its
-    window frame.  Some window functions act only
+    window framefirstterm>.  Some window functions act only
     on the rows of the window frame, rather than of the whole partition.
-    By default, if ORDER BY is supplied then the frame consists of
+    By default, if ORDER BYliteral> is supplied then the frame consists of
     all rows from the start of the partition up through the current row, plus
     any following rows that are equal to the current row according to the
-    ORDER BY> clause.  When ORDER BY> is omitted the
+    ORDER BYliteral> clause.  When ORDER BY> is omitted the
     default frame consists of all rows in the partition.
      
       
@@ -450,7 +450,7 @@ FROM empsalary;
         for details.
       
      
-    Here is an example using sum:
+    Here is an example using sumfunction>:
    
 
 
@@ -474,11 +474,11 @@ SELECT salary, sum(salary) OVER () FROM empsalary;
 
 
    
-    Above, since there is no ORDER BY> in the OVER>
+    Above, since there is no ORDER BYliteral> in the OVER>
     clause, the window frame is the same as the partition, which for lack of
-    PARTITION BY is the whole table; in other words each sum is
+    PARTITION BYliteral> is the whole table; in other words each sum is
     taken over the whole table and so we get the same result for each output
-    row.  But if we add an ORDER BY clause, we get very different
+    row.  But if we add an ORDER BYliteral> clause, we get very different
     results:
    
 
@@ -510,8 +510,8 @@ SELECT salary, sum(salary) OVER (ORDER BY salary) FROM empsalary;
 
    
     Window functions are permitted only in the SELECT list
-    and the ORDER BY clause of the query. They are forbidden
-    elsewhere, such as in GROUP BY>, HAVING>
+    and the ORDER BYliteral> clause of the query. They are forbidden
+    elsewhere, such as in GROUP BYliteral>, HAVING>
     and WHERE clauses.  This is because they logically
     execute after the processing of those clauses.  Also, window functions
     execute after non-window aggregate functions.  This means it is valid to
@@ -534,15 +534,15 @@ WHERE pos < 3;
 
 
     The above query only shows the rows from the inner query having
-    rank less than 3.
+    rankliteral> less than 3.
    
 
    
     When a query involves multiple window functions, it is possible to write
-    out each one with a separate OVER clause, but this is
+    out each one with a separate OVERliteral> clause, but this is
     duplicative and error-prone if the same windowing behavior is wanted
     for several functions.  Instead, each windowing behavior can be named
-    in a WINDOW> clause and then referenced in OVER>.
+    in a WINDOWliteral> clause and then referenced in OVER>.
     For example:
 
 
@@ -623,13 +623,13 @@ CREATE TABLE capitals (
 
    
     In this case, a row of capitals
-    inherits all columns (name,
-    population>, and altitude>) from its
+    inherits all columns (namestructfield>,
+    populationstructfield>, and altitude>) from its
     parentcities.  The
     type of the column name is
     text, a native PostgreSQL
     type for variable length character strings.  State capitals have
-    an extra column, state, that shows their state.  In
+    an extra column, statestructfield>, that shows their state.  In
     PostgreSQL, a table can inherit from
     zero or more other tables.
    
index dd71dbd679b191d2078f3ffed370e48a30b3075e..0dd68f0ba148e166ec0ee9182815293d02a5fb19 100644 (file)
@@ -8,19 +8,19 @@
  
 
  
-  The amcheck module provides functions that allow you to
+  The amcheckfilename> module provides functions that allow you to
   verify the logical consistency of the structure of indexes.  If the
   structure appears to be valid, no error is raised.
  
 
  
-  The functions verify various invariants in the
+  The functions verify various invariantsemphasis> in the
   structure of the representation of particular indexes.  The
   correctness of the access method functions behind index scans and
   other important operations relies on these invariants always
   holding.  For example, certain functions verify, among other things,
-  that all B-Tree pages have items in logical order (e.g.,
-  for B-Tree indexes on text, index tuples should be in
+  that all B-Tree pages have items in logicalquote> order (e.g.,
+  for B-Tree indexes on texttype>, index tuples should be in
   collated lexical order).  If that particular invariant somehow fails
   to hold, we can expect binary searches on the affected page to
   incorrectly guide index scans, resulting in wrong answers to SQL
@@ -35,7 +35,7 @@
   functions.
  
  
-  amcheck functions may be used only by superusers.
+  amcheckfilename> functions may be used only by superusers.
  
 
  
@@ -82,7 +82,7 @@ ORDER BY c.relpages DESC LIMIT 10;
 (10 rows)
 
       This example shows a session that performs verification of every
-      catalog index in the database test.  Details of just
+      catalog index in the database testquote>.  Details of just
       the 10 largest indexes verified are displayed.  Since no error
       is raised, all indexes tested appear to be logically consistent.
       Naturally, this query could easily be changed to call
@@ -90,10 +90,10 @@ ORDER BY c.relpages DESC LIMIT 10;
       database where verification is supported.
      
      
-      bt_index_check acquires an AccessShareLock
+      bt_index_check acquires an AccessShareLockliteral>
       on the target index and the heap relation it belongs to. This lock mode
       is the same lock mode acquired on relations by simple
-      SELECT statements.
+      SELECTliteral> statements.
       bt_index_check does not verify invariants
       that span child/parent relationships, nor does it verify that
       the target index is consistent with its heap relation.  When a
@@ -132,13 +132,13 @@ ORDER BY c.relpages DESC LIMIT 10;
       logical inconsistency or other problem.
      
      
-      A ShareLock is required on the target index by
+      A ShareLockliteral> is required on the target index by
       bt_index_parent_check (a
-      ShareLock is also acquired on the heap relation).
+      ShareLockliteral> is also acquired on the heap relation).
       These locks prevent concurrent data modification from
-      INSERT>, UPDATE, and DELETE>
+      INSERTcommand>, UPDATE, and DELETE>
       commands.  The locks also prevent the underlying relation from
-      being concurrently processed by VACUUM, as well as
+      being concurrently processed by VACUUMcommand>, as well as
       all other utility commands.  Note that the function holds locks
       only while running, not for the entire transaction.
      
@@ -159,13 +159,13 @@ ORDER BY c.relpages DESC LIMIT 10;
  
 
  
-  Using <filename>amcheck</> effectively
+  Using <filename>amcheck</<span class="marked">filename</span>> effectively
 
  
-  amcheck can be effective at detecting various types of
+  amcheckfilename> can be effective at detecting various types of
   failure modes that 
   linkend="app-initdb-data-checksums">data page
-  checksums will always fail to catch.  These include:
+  checksumsapplication> will always fail to catch.  These include:
 
   
    
@@ -176,13 +176,13 @@ ORDER BY c.relpages DESC LIMIT 10;
     
      This includes issues caused by the comparison rules of operating
      system collations changing. Comparisons of datums of a collatable
-     type like text must be immutable (just as all
+     type like texttype> must be immutable (just as all
      comparisons used for B-Tree index scans must be immutable), which
      implies that operating system collation rules must never change.
      Though rare, updates to operating system collation rules can
      cause these issues. More commonly, an inconsistency in the
      collation order between a master server and a standby server is
-     implicated, possibly because the major operating
+     implicated, possibly because the majoremphasis> operating
      system version in use is inconsistent.  Such inconsistencies will
      generally only arise on standby servers, and so can generally
      only be detected on standby servers.
@@ -190,25 +190,25 @@ ORDER BY c.relpages DESC LIMIT 10;
     
      If a problem like this arises, it may not affect each individual
      index that is ordered using an affected collation, simply because
-     indexed values might happen to have the same
+     indexedemphasis> values might happen to have the same
      absolute ordering regardless of the behavioral inconsistency. See
       and  for
-     further details about how PostgreSQL uses
+     further details about how PostgreSQLproductname> uses
      operating system locales and collations.
     
    
    
     
      Corruption caused by hypothetical undiscovered bugs in the
-     underlying PostgreSQL access method code or sort
+     underlying PostgreSQLproductname> access method code or sort
      code.
     
     
      Automatic verification of the structural integrity of indexes
      plays a role in the general testing of new or proposed
-     PostgreSQL features that could plausibly allow a
+     PostgreSQLproductname> features that could plausibly allow a
      logical inconsistency to be introduced.  One obvious testing
-     strategy is to call amcheck functions continuously
+     strategy is to call amcheckfilename> functions continuously
      when running the standard regression tests.  See 
      linkend="regress-run"> for details on running the tests.
     
@@ -219,12 +219,12 @@ ORDER BY c.relpages DESC LIMIT 10;
      simply not be enabled.
     
     
-     Note that amcheck examines a page as represented in some
+     Note that amcheckfilename> examines a page as represented in some
      shared memory buffer at the time of verification if there is only a
      shared buffer hit when accessing the block. Consequently,
-     amcheck does not necessarily examine data read from the
+     amcheckfilename> does not necessarily examine data read from the
      file system at the time of verification. Note that when checksums are
-     enabled, amcheck may raise an error due to a checksum
+     enabled, amcheckfilename> may raise an error due to a checksum
      failure when a corrupt block is read into a buffer.
     
    
@@ -234,7 +234,7 @@ ORDER BY c.relpages DESC LIMIT 10;
      and operating system.
     
     
-     PostgreSQL does not protect against correctable
+     PostgreSQLproductname> does not protect against correctable
      memory errors and it is assumed you will operate using RAM that
      uses industry standard Error Correcting Codes (ECC) or better
      protection.  However, ECC memory is typically only immune to
@@ -244,7 +244,7 @@ ORDER BY c.relpages DESC LIMIT 10;
     
    
   
-  In general, amcheck can only prove the presence of
+  In general, amcheckfilename> can only prove the presence of
   corruption; it cannot prove its absence.
  
 
@@ -252,19 +252,19 @@ ORDER BY c.relpages DESC LIMIT 10;
  
   Repairing corruption
  
-  No error concerning corruption raised by amcheck should
-  ever be a false positive.  In practice, amcheck is more
+  No error concerning corruption raised by amcheckfilename> should
+  ever be a false positive.  In practice, amcheckfilename> is more
   likely to find software bugs than problems with hardware.
-  amcheck raises errors in the event of conditions that,
+  amcheckfilename> raises errors in the event of conditions that,
   by definition, should never happen, and so careful analysis of
-  amcheck errors is often required.
+  amcheckfilename> errors is often required.
  
  
   There is no general method of repairing problems that
-  amcheck detects.  An explanation for the root cause of
+  amcheckfilename> detects.  An explanation for the root cause of
   an invariant violation should be sought.  
   linkend="pageinspect"> may play a useful role in diagnosing
-  corruption that amcheck> detects.  A REINDEX>
+  corruption that amcheckfilename> detects.  A REINDEX>
   may not be effective in repairing corruption.
  
 
index c835e87215e8f42e0b27eceb518aafd8e024329e..5423aadb9c82753b828ec806af1cd18929adb145 100644 (file)
 
    
     PostgreSQL is implemented using a
-    simple process per user client/server model.  In this model
+    simple process per userquote> client/server model.  In this model
     there is one client process connected to
     exactly one server process.  As we do not
     know ahead of time how many connections will be made, we have to
     The client process can be any program that understands the
     PostgreSQL protocol described in
     .  Many clients are based on the
-    C-language library libpq, but several independent
+    C-language library libpqapplication>, but several independent
     implementations of the protocol exist, such as the Java
-    JDBC driver.
+    JDBCapplication> driver.
    
 
    
      text) for valid syntax. If the syntax is correct a
      parse tree is built up and handed back;
      otherwise an error is returned. The parser and lexer are
-     implemented using the well-known Unix tools bison
-     and flex.
+     implemented using the well-known Unix tools bisonapplication>
+     and flexapplication>.
     
 
     
      back by the parser as input and does the semantic interpretation needed
      to understand which tables, functions, and operators are referenced by
      the query.  The data structure that is built to represent this
-     information is called the query tree.
+     information is called the query treefirstterm>.
     
 
     
      system catalog lookups can only be done within a transaction, and we
      do not wish to start a transaction immediately upon receiving a query
      string.  The raw parsing stage is sufficient to identify the transaction
-     control commands (BEGIN>, ROLLBACK>, etc), and
+     control commands (BEGINcommand>, ROLLBACK>, etc), and
      these can then be correctly executed without any further analysis.
      Once we know that we are dealing with an actual query (such as
-     SELECT> or UPDATE>), it is okay to
+     SELECTcommand> or UPDATE>), it is okay to
      start a transaction if we're not already in one.  Only then can the
      transformation process be invoked.
     
     
      The query tree created by the transformation process is structurally
      similar to the raw parse tree in most places, but it has many differences
-     in detail.  For example, a FuncCall node in the
+     in detail.  For example, a FuncCallstructname> node in the
      parse tree represents something that looks syntactically like a function
-     call.  This might be transformed to either a FuncExpr
-     or Aggref node depending on whether the referenced
+     call.  This might be transformed to either a FuncExprstructname>
+     or Aggrefstructname> node depending on whether the referenced
      name turns out to be an ordinary function or an aggregate function.
      Also, information about the actual data types of columns and expression
      results is added to the query tree.
 
    
     The planner's search procedure actually works with data structures
-    called paths, which are simply cut-down representations of
+    called pathsfirstterm>, which are simply cut-down representations of
     plans containing only as much information as the planner needs to make
     its decisions. After the cheapest path is determined, a full-fledged
-    plan tree is built to pass to the executor.  This represents
+    plan treefirstterm> is built to pass to the executor.  This represents
     the desired execution plan in sufficient detail for the executor to run it.
     In the rest of this section we'll ignore the distinction between paths
     and plans.
      relation.attribute OPR constant. If
      relation.attribute happens to match the key of the B-tree
      index and OPR is one of the operators listed in
-     the index's operator class, another plan is created using
+     the index's operator classfirstterm>, another plan is created using
      the B-tree index to scan the relation. If there are further indexes
      present and the restrictions in the query happen to match a key of an
      index, further plans will be considered.  Index scan plans are also
      generated for indexes that have a sort ordering that can match the
-     query's ORDER BY clause (if any), or a sort ordering that
+     query's ORDER BYliteral> clause (if any), or a sort ordering that
      might be useful for merge joining (see below).
     
 
      the base relations, plus nested-loop, merge, or hash join nodes as
      needed, plus any auxiliary steps needed, such as sort nodes or
      aggregate-function calculation nodes.  Most of these plan node
-     types have the additional ability to do selection
+     types have the additional ability to do selectionfirstterm>
      (discarding rows that do not meet a specified Boolean condition)
-     and projection (computation of a derived column set
+     and projectionfirstterm> (computation of a derived column set
      based on given column values, that is, evaluation of scalar
      expressions where needed).  One of the responsibilities of the
      planner is to attach selection conditions from the
     subplan) is, let's say, a
     Sort node and again recursion is needed to obtain
     an input row.  The child node of the Sort might
-    be a SeqScan node, representing actual reading of a table.
+    be a SeqScanliteral> node, representing actual reading of a table.
     Execution of this node causes the executor to fetch a row from the
     table and return it up to the calling node.  The Sort
     node will repeatedly call its child to obtain all the rows to be sorted.
 
    
     The executor mechanism is used to evaluate all four basic SQL query types:
-    SELECT>, INSERT, UPDATE>, and
-    DELETE>.  For SELECT>, the top-level executor
+    SELECTcommand>, INSERTUPDATE>, and
+    DELETEcommand>.  For SELECT>, the top-level executor
     code only needs to send each row returned by the query plan tree off
-    to the client.  For INSERT, each returned row is inserted
-    into the target table specified for the INSERT.  This is
-    done in a special top-level plan node called ModifyTable.
+    to the client.  For INSERTcommand>, each returned row is inserted
+    into the target table specified for the INSERTcommand>.  This is
+    done in a special top-level plan node called ModifyTableliteral>.
     (A simple
-    INSERT ... VALUES command creates a trivial plan tree
-    consisting of a single Result node, which computes just one
-    result row, and ModifyTable above it to perform the insertion.
-    But INSERT ... SELECT can demand the full power
-    of the executor mechanism.)  For UPDATE, the planner arranges
+    INSERT ... VALUEScommand> command creates a trivial plan tree
+    consisting of a single Resultliteral> node, which computes just one
+    result row, and ModifyTableliteral> above it to perform the insertion.
+    But INSERT ... SELECTcommand> can demand the full power
+    of the executor mechanism.)  For UPDATEcommand>, the planner arranges
     that each computed row includes all the updated column values, plus
-    the TID (tuple ID, or row ID) of the original target row;
-    this data is fed into a ModifyTable node, which uses the
+    the TIDfirstterm> (tuple ID, or row ID) of the original target row;
+    this data is fed into a ModifyTableliteral> node, which uses the
     information to create a new updated row and mark the old row deleted.
-    For DELETE, the only column that is actually returned by the
-    plan is the TID, and the ModifyTable node simply uses the TID
+    For DELETEcommand>, the only column that is actually returned by the
+    plan is the TID, and the ModifyTableliteral> node simply uses the TID
     to visit each target row and mark it deleted.
    
 
index 88eb4be04d001472f8c4d4aa5df29a82fbbf418b..9187f6e02e75239d6906008d49a092efba494223 100644 (file)
@@ -32,7 +32,7 @@ CREATE TABLE sal_emp (
 );
 
   As shown, an array data type is named by appending square brackets
-  ([]) to the data type name of the array elements.  The
+  ([]literal>) to the data type name of the array elements.  The
   above command will create a table named
   sal_emp with a column of type
   text (name), a
@@ -69,7 +69,7 @@ CREATE TABLE tictactoe (
 
  
   An alternative syntax, which conforms to the SQL standard by using
-  the keyword ARRAY, can be used for one-dimensional arrays.
+  the keyword ARRAYliteral>, can be used for one-dimensional arrays.
   pay_by_quarter could have been defined
   as:
 
@@ -79,7 +79,7 @@ CREATE TABLE tictactoe (
 
     pay_by_quarter  integer ARRAY,
 
-  As before, however, PostgreSQL does not enforce the
+  As before, however, PostgreSQLproductname> does not enforce the
   size restriction in any case.
  
  
@@ -107,8 +107,8 @@ CREATE TABLE tictactoe (
    for the type, as recorded in its pg_type entry.
    Among the standard data types provided in the
    PostgreSQL distribution, all use a comma
-   (,>), except for type box> which uses a semicolon
-   (;). Each val is
+   (,literal>), except for type box> which uses a semicolon
+   (;literal>). Each val is
    either a constant of the array element type, or a subarray. An example
    of an array constant is:
 
@@ -119,10 +119,10 @@ CREATE TABLE tictactoe (
   
 
   
-   To set an element of an array constant to NULL, write NULL
+   To set an element of an array constant to NULL, write NULLliteral>
    for the element value.  (Any upper- or lower-case variant of
-   NULL will do.)  If you want an actual string value
-   NULL, you must put double quotes around it.
+   NULLliteral> will do.)  If you want an actual string value
+   NULLquote>, you must put double quotes around it.
   
 
   
@@ -176,7 +176,7 @@ ERROR:  multidimensional arrays must have array expressions with matching dimens
  
 
  
-  The ARRAY constructor syntax can also be used:
+  The ARRAYliteral> constructor syntax can also be used:
 
 INSERT INTO sal_emp
     VALUES ('Bill',
@@ -190,7 +190,7 @@ INSERT INTO sal_emp
 
   Notice that the array elements are ordinary SQL constants or
   expressions; for instance, string literals are single quoted, instead of
-  double quoted as they would be in an array literal.  The ARRAY
+  double quoted as they would be in an array literal.  The ARRAYliteral>
   constructor syntax is discussed in more detail in
   .
  
@@ -222,8 +222,8 @@ SELECT name FROM sal_emp WHERE pay_by_quarter[1] <> pay_by_quarter[2];
   The array subscript numbers are written within square brackets.
   By default PostgreSQL uses a
   one-based numbering convention for arrays, that is,
-  an array of n elements starts with array[1] and
-  ends with array[n].
+  an array of nreplaceable> elements starts with array[1] and
+  ends with array[nreplaceable>].
  
 
  
@@ -259,8 +259,8 @@ SELECT schedule[1:2][1:1] FROM sal_emp WHERE name = 'Bill';
   If any dimension is written as a slice, i.e., contains a colon, then all
   dimensions are treated as slices.  Any dimension that has only a single
   number (no colon) is treated as being from 1
-  to the number specified.  For example, [2] is treated as
-  [1:2], as in this example:
+  to the number specified.  For example, [2]literal> is treated as
+  [1:2]literal>, as in this example:
 
 
 SELECT schedule[1:2][2] FROM sal_emp WHERE name = 'Bill';
@@ -272,7 +272,7 @@ SELECT schedule[1:2][2] FROM sal_emp WHERE name = 'Bill';
 
 
   To avoid confusion with the non-slice case, it's best to use slice syntax
-  for all dimensions, e.g., [1:2][1:1]>, not [2][1:1]>.
+  for all dimensions, e.g., [1:2][1:1]literal>, not [2][1:1]>.
  
 
  
@@ -302,9 +302,9 @@ SELECT schedule[:][1:1] FROM sal_emp WHERE name = 'Bill';
   An array subscript expression will return null if either the array itself or
   any of the subscript expressions are null.  Also, null is returned if a
   subscript is outside the array bounds (this case does not raise an error).
-  For example, if schedule
-  currently has the dimensions [1:3][1:2] then referencing
-  schedule[3][3] yields NULL.  Similarly, an array reference
+  For example, if scheduleliteral>
+  currently has the dimensions [1:3][1:2]literal> then referencing
+  schedule[3][3]literal> yields NULL.  Similarly, an array reference
   with the wrong number of subscripts yields a null rather than an error.
  
 
@@ -423,16 +423,16 @@ UPDATE sal_emp SET pay_by_quarter[1:2] = '{27000,27000}'
   A stored array value can be enlarged by assigning to elements not already
   present.  Any positions between those previously present and the newly
   assigned elements will be filled with nulls.  For example, if array
-  myarray currently has 4 elements, it will have six
-  elements after an update that assigns to myarray[6];
-  myarray[5] will contain null.
+  myarrayliteral> currently has 4 elements, it will have six
+  elements after an update that assigns to myarray[6]literal>;
+  myarray[5]literal> will contain null.
   Currently, enlargement in this fashion is only allowed for one-dimensional
   arrays, not multidimensional arrays.
  
 
  
   Subscripted assignment allows creation of arrays that do not use one-based
-  subscripts.  For example one might assign to myarray[-2:7] to
+  subscripts.  For example one might assign to myarray[-2:7]literal> to
   create an array with subscript values from -2 to 7.
  
 
@@ -457,8 +457,8 @@ SELECT ARRAY[5,6] || ARRAY[[1,2],[3,4]];
  
   The concatenation operator allows a single element to be pushed onto the
   beginning or end of a one-dimensional array. It also accepts two
-  N>-dimensional arrays, or an N>-dimensional
-  and an N+1-dimensional array.
+  Nreplaceable>-dimensional arrays, or an N>-dimensional
+  and an N+1replaceable>-dimensional array.
  
 
  
@@ -501,10 +501,10 @@ SELECT array_dims(ARRAY[[1,2],[3,4]] || ARRAY[[5,6],[7,8],[9,0]]);
  
 
  
-  When an N-dimensional array is pushed onto the beginning
-  or end of an N+1-dimensional array, the result is
-  analogous to the element-array case above. Each N-dimensional
-  sub-array is essentially an element of the N+1-dimensional
+  When an Nreplaceable>-dimensional array is pushed onto the beginning
+  or end of an N+1replaceable>-dimensional array, the result is
+  analogous to the element-array case above. Each Nreplaceable>-dimensional
+  sub-array is essentially an element of the N+1replaceable>-dimensional
   array's outer dimension. For example:
 
 SELECT array_dims(ARRAY[1,2] || ARRAY[[3,4],[5,6]]);
@@ -587,9 +587,9 @@ SELECT array_append(ARRAY[1, 2], NULL);    -- this might have been meant
   The heuristic it uses to resolve the constant's type is to assume it's of
   the same type as the operator's other input — in this case,
   integer array.  So the concatenation operator is presumed to
-  represent array_cat>, not array_append>.  When
+  represent array_catfunction>, not array_append>.  When
   that's the wrong choice, it could be fixed by casting the constant to the
-  array's element type; but explicit use of array_append might
+  array's element type; but explicit use of array_appendfunction> might
   be a preferable solution.
  
  
@@ -633,7 +633,7 @@ SELECT * FROM sal_emp WHERE 10000 = ALL (pay_by_quarter);
  
 
  
-  Alternatively, the generate_subscripts function can be used.
+  Alternatively, the generate_subscriptsfunction> function can be used.
   For example:
 
 
@@ -648,7 +648,7 @@ SELECT * FROM
  
 
  
-  You can also search an array using the && operator,
+  You can also search an array using the &&literal> operator,
   which checks whether the left operand overlaps with the right operand.
   For instance:
 
@@ -662,8 +662,8 @@ SELECT * FROM sal_emp WHERE pay_by_quarter && ARRAY[10000];
  
 
  
-  You can also search for specific values in an array using the array_position
-  and array_positions functions. The former returns the subscript of
+  You can also search for specific values in an array using the array_positionfunction>
+  and array_positionsfunction> functions. The former returns the subscript of
   the first occurrence of a value in an array; the latter returns an array with the
   subscripts of all occurrences of the value in the array.  For example:
 
@@ -703,13 +703,13 @@ SELECT array_positions(ARRAY[1, 4, 3, 1, 3, 4, 2, 1], 1);
    The external text representation of an array value consists of items that
    are interpreted according to the I/O conversion rules for the array's
    element type, plus decoration that indicates the array structure.
-   The decoration consists of curly braces ({> and }>)
+   The decoration consists of curly braces ({literal> and }>)
    around the array value plus delimiter characters between adjacent items.
-   The delimiter character is usually a comma (,) but can be
-   something else: it is determined by the typdelim setting
+   The delimiter character is usually a comma (,literal>) but can be
+   something else: it is determined by the typdelimliteral> setting
    for the array's element type.  Among the standard data types provided
    in the PostgreSQL distribution, all use a comma,
-   except for type box>, which uses a semicolon (;>).
+   except for type boxtype>, which uses a semicolon (;>).
    In a multidimensional array, each dimension (row, plane,
    cube, etc.) gets its own level of curly braces, and delimiters
    must be written between adjacent curly-braced entities of the same level.
@@ -719,7 +719,7 @@ SELECT array_positions(ARRAY[1, 4, 3, 1, 3, 4, 2, 1], 1);
    The array output routine will put double quotes around element values
    if they are empty strings, contain curly braces, delimiter characters,
    double quotes, backslashes, or white space, or match the word
-   NULL.  Double quotes and backslashes
+   NULLliteral>.  Double quotes and backslashes
    embedded in element values will be backslash-escaped.  For numeric
    data types it is safe to assume that double quotes will never appear, but
    for textual data types one should be prepared to cope with either the presence
@@ -731,10 +731,10 @@ SELECT array_positions(ARRAY[1, 4, 3, 1, 3, 4, 2, 1], 1);
    set to one.  To represent arrays with other lower bounds, the array
    subscript ranges can be specified explicitly before writing the
    array contents.
-   This decoration consists of square brackets ([])
+   This decoration consists of square brackets ([]literal>)
    around each array dimension's lower and upper bounds, with
-   a colon (:) delimiter character in between. The
-   array dimension decoration is followed by an equal sign (=).
+   a colon (:literal>) delimiter character in between. The
+   array dimension decoration is followed by an equal sign (=literal>).
    For example:
 
 SELECT f1[1][-2][3] AS e1, f1[1][-1][5] AS e2
@@ -750,23 +750,23 @@ SELECT f1[1][-2][3] AS e1, f1[1][-1][5] AS e2
   
 
   
-   If the value written for an element is NULL (in any case
+   If the value written for an element is NULLliteral> (in any case
    variant), the element is taken to be NULL.  The presence of any quotes
    or backslashes disables this and allows the literal string value
-   NULL to be entered.  Also, for backward compatibility with
-   pre-8.2 versions of PostgreSQL, the 
+   NULLquote> to be entered.  Also, for backward compatibility with
+   pre-8.2 versions of PostgreSQLproductname>, the 
    linkend="guc-array-nulls"> configuration parameter can be turned
-   off> to suppress recognition of NULL> as a NULL.
+   offliteral> to suppress recognition of NULL> as a NULL.
   
 
   
    As shown previously, when writing an array value you can use double
-   quotes around any individual array element. You must do so
+   quotes around any individual array element. You mustemphasis> do so
    if the element value would otherwise confuse the array-value parser.
    For example, elements containing curly braces, commas (or the data type's
    delimiter character), double quotes, backslashes, or leading or trailing
    whitespace must be double-quoted.  Empty strings and strings matching the
-   word NULL must be quoted, too.  To put a double quote or
+   word NULLliteral> must be quoted, too.  To put a double quote or
    backslash in a quoted array element value, use escape string syntax
    and precede it with a backslash. Alternatively, you can avoid quotes and use
    backslash-escaping to protect all data characters that would otherwise
@@ -785,17 +785,17 @@ SELECT f1[1][-2][3] AS e1, f1[1][-1][5] AS e2
   
    Remember that what you write in an SQL command will first be interpreted
    as a string literal, and then as an array.  This doubles the number of
-   backslashes you need.  For example, to insert a text array
+   backslashes you need.  For example, to insert a texttype> array
    value containing a backslash and a double quote, you'd need to write:
 
 INSERT ... VALUES (E'{"\\\\","\\""}');
 
    The escape string processor removes one level of backslashes, so that
-   what arrives at the array-value parser looks like {"\\","\""}.
-   In turn, the strings fed to the text data type's input routine
-   become \> and "> respectively.  (If we were working
+   what arrives at the array-value parser looks like {"\\","\""}literal>.
+   In turn, the strings fed to the texttype> data type's input routine
+   become \literal> and "> respectively.  (If we were working
    with a data type whose input routine also treated backslashes specially,
-   bytea for example, we might need as many as eight backslashes
+   byteatype> for example, we might need as many as eight backslashes
    in the command to get one backslash into the stored array element.)
    Dollar quoting (see ) can be
    used to avoid the need to double backslashes.
@@ -804,10 +804,10 @@ INSERT ... VALUES (E'{"\\\\","\\""}');
 
  
   
-   The ARRAY constructor syntax (see
+   The ARRAYliteral> constructor syntax (see
    ) is often easier to work
    with than the array-literal syntax when writing array values in SQL
-   commands. In ARRAY, individual element values are written the
+   commands. In ARRAYliteral>, individual element values are written the
    same way they would be written when not members of an array.
   
  
index 9a6e3e9bb4d818d2d9b18f54cddcc333a1fb96e5..9221d2dfb656a8cde0d935f88e5a5993b7b621e7 100644 (file)
@@ -18,7 +18,7 @@
 
  
   In order to function, this module must be loaded via
-   in postgresql.conf.
+   in postgresql.conffilename>.
  
 
  
@@ -29,7 +29,7 @@
     
      auth_delay.milliseconds (int)
      
-      auth_delay.milliseconds configuration parameter
+      auth_delay.millisecondsvarname> configuration parameter
      
     
     
@@ -42,7 +42,7 @@
   
 
   
-   These parameters must be set in postgresql.conf.
+   These parameters must be set in postgresql.conffilename>.
    Typical usage might be:
   
 
index 38e6f50c8029b0249d18b2f702b27365056564e1..240098c82f771506444c973e6f1254e96d820680 100644 (file)
@@ -24,10 +24,10 @@ LOAD 'auto_explain';
 
 
   (You must be superuser to do that.)  More typical usage is to preload
-  it into some or all sessions by including auto_explain in
+  it into some or all sessions by including auto_explainliteral> in
    or
    in
-  postgresql.conf.  Then you can track unexpectedly slow queries
+  postgresql.conffilename>.  Then you can track unexpectedly slow queries
   no matter when they happen.  Of course there is a price in overhead for
   that.
  
@@ -47,7 +47,7 @@ LOAD 'auto_explain';
     
      auto_explain.log_min_duration (integer)
      
-      auto_explain.log_min_duration configuration parameter
+      auto_explain.log_min_durationvarname> configuration parameter
      
     
     
@@ -66,13 +66,13 @@ LOAD 'auto_explain';
     
      auto_explain.log_analyze (boolean)
      
-      auto_explain.log_analyze configuration parameter
+      auto_explain.log_analyzevarname> configuration parameter
      
     
     
      
-      auto_explain.log_analyze causes EXPLAIN ANALYZE
-      output, rather than just EXPLAIN output, to be printed
+      auto_explain.log_analyze causes EXPLAIN ANALYZEcommand>
+      output, rather than just EXPLAINcommand> output, to be printed
       when an execution plan is logged. This parameter is off by default.
       Only superusers can change this setting.
      
@@ -92,14 +92,14 @@ LOAD 'auto_explain';
     
      auto_explain.log_buffers (boolean)
      
-      auto_explain.log_buffers configuration parameter
+      auto_explain.log_buffersvarname> configuration parameter
      
     
     
      
       auto_explain.log_buffers controls whether buffer
       usage statistics are printed when an execution plan is logged; it's
-      equivalent to the BUFFERS> option of EXPLAIN>.
+      equivalent to the BUFFERSliteral> option of EXPLAIN>.
       This parameter has no effect
       unless auto_explain.log_analyze is enabled.
       This parameter is off by default.
@@ -112,14 +112,14 @@ LOAD 'auto_explain';
     
      auto_explain.log_timing (boolean)
      
-      auto_explain.log_timing configuration parameter
+      auto_explain.log_timingvarname> configuration parameter
      
     
     
      
       auto_explain.log_timing controls whether per-node
       timing information is printed when an execution plan is logged; it's
-      equivalent to the TIMING> option of EXPLAIN>.
+      equivalent to the TIMINGliteral> option of EXPLAIN>.
       The overhead of repeatedly reading the system clock can slow down
       queries significantly on some systems, so it may be useful to set this
       parameter to off when only actual row counts, and not exact times, are
@@ -136,7 +136,7 @@ LOAD 'auto_explain';
     
      auto_explain.log_triggers (boolean)
      
-      auto_explain.log_triggers configuration parameter
+      auto_explain.log_triggersvarname> configuration parameter
      
     
     
@@ -155,14 +155,14 @@ LOAD 'auto_explain';
     
      auto_explain.log_verbose (boolean)
      
-      auto_explain.log_verbose configuration parameter
+      auto_explain.log_verbosevarname> configuration parameter
      
     
     
      
       auto_explain.log_verbose controls whether verbose
       details are printed when an execution plan is logged; it's
-      equivalent to the VERBOSE> option of EXPLAIN>.
+      equivalent to the VERBOSEliteral> option of EXPLAIN>.
       This parameter is off by default.
       Only superusers can change this setting.
      
@@ -173,13 +173,13 @@ LOAD 'auto_explain';
     
      auto_explain.log_format (enum)
      
-      auto_explain.log_format configuration parameter
+      auto_explain.log_formatvarname> configuration parameter
      
     
     
      
       auto_explain.log_format selects the
-      EXPLAIN output format to be used.
+      EXPLAINcommand> output format to be used.
       The allowed values are textxml,
       json, and yaml.  The default is text.
       Only superusers can change this setting.
@@ -191,7 +191,7 @@ LOAD 'auto_explain';
     
      auto_explain.log_nested_statements (boolean)
      
-      auto_explain.log_nested_statements configuration parameter
+      auto_explain.log_nested_statementsvarname> configuration parameter
      
     
     
@@ -208,7 +208,7 @@ LOAD 'auto_explain';
     
      auto_explain.sample_rate (real)
      
-      auto_explain.sample_rate configuration parameter
+      auto_explain.sample_ratevarname> configuration parameter
      
     
     
@@ -224,7 +224,7 @@ LOAD 'auto_explain';
 
   
    In ordinary usage, these parameters are set
-   in postgresql.conf, although superusers can alter them
+   in postgresql.conffilename>, although superusers can alter them
    on-the-fly within their own sessions.
    Typical usage might be:
   
index bd55e8bb775bec001893e9bcf346c75ea8cdc221..dd9c1bff5b38cae39e977cb3a6816f241fdd876a 100644 (file)
@@ -3,10 +3,10 @@
 
  Backup and Restore
 
backup>>
backupprimary>>
 
  
-  As with everything that contains valuable data, PostgreSQL
+  As with everything that contains valuable data, PostgreSQLproductname>
   databases should be backed up regularly. While the procedure is
   essentially simple, it is important to have a clear understanding of
   the underlying techniques and assumptions.
@@ -14,9 +14,9 @@
 
  
   There are three fundamentally different approaches to backing up
-  PostgreSQL data:
+  PostgreSQLproductname> data:
   
-   SQL dump
+   SQLacronym> dump
    File system level backup
    Continuous archiving
   
  
 
  
-  <acronym>SQL</> Dump
+  <acronym>SQL</<span class="marked">acronym</span>> Dump
 
   
    The idea behind this dump method is to generate a file with SQL
    commands that, when fed back to the server, will recreate the
    database in the same state as it was at the time of the dump.
-   PostgreSQL provides the utility program
+   PostgreSQLproductname> provides the utility program
     for this purpose. The basic usage of this
    command is:
 
 pg_dump dbname > outfile
 
-   As you see, pg_dump writes its result to the
+   As you see, pg_dumpapplication> writes its result to the
    standard output. We will see below how this can be useful.
-   While the above command creates a text file, pg_dump
+   While the above command creates a text file, pg_dumpapplication>
    can create files in other formats that allow for parallelism and more
    fine-grained control of object restoration.
   
 
   
-   pg_dump> is a regular PostgreSQL>
+   pg_dumpapplication> is a regular PostgreSQL>
    client application (albeit a particularly clever one). This means
    that you can perform this backup procedure from any remote host that has
-   access to the database. But remember that pg_dump
+   access to the database. But remember that pg_dumpapplication>
    does not operate with special permissions. In particular, it must
    have read access to all tables that you want to back up, so in order
    to back up the entire database you almost always have to run it as a
@@ -60,9 +60,9 @@ pg_dump dbname > 
   
 
   
-   To specify which database server pg_dump should
+   To specify which database server pg_dumpapplication> should
    contact, use the command line options 
-   host> and 
+   hostreplaceable> and 
    default host is the local host or whatever your
    PGHOST environment variable specifies. Similarly,
    the default port is indicated by the PGPORT
@@ -72,30 +72,30 @@ pg_dump dbname > 
   
 
   
-   Like any other PostgreSQL client application,
-   pg_dump will by default connect with the database
+   Like any other PostgreSQLproductname> client application,
+   pg_dumpapplication> will by default connect with the database
    user name that is equal to the current operating system user name. To override
    this, either specify the  option or set the
    environment variable PGUSER. Remember that
-   pg_dump connections are subject to the normal
+   pg_dumpapplication> connections are subject to the normal
    client authentication mechanisms (which are described in 
    linkend="client-authentication">).
   
 
   
-   An important advantage of pg_dump over the other backup
-   methods described later is that pg_dump's output can
-   generally be re-loaded into newer versions of PostgreSQL,
+   An important advantage of pg_dumpapplication> over the other backup
+   methods described later is that pg_dumpapplication>'s output can
+   generally be re-loaded into newer versions of PostgreSQLproductname>,
    whereas file-level backups and continuous archiving are both extremely
-   server-version-specific.  pg_dump is also the only method
+   server-version-specific.  pg_dumpapplication> is also the only method
    that will work when transferring a database to a different machine
    architecture, such as going from a 32-bit to a 64-bit server.
   
 
   
-   Dumps created by pg_dump are internally consistent,
+   Dumps created by pg_dumpapplication> are internally consistent,
    meaning, the dump represents a snapshot of the database at the time
-   pg_dump> began running. pg_dump> does not
+   pg_dumpapplication> began running. pg_dump> does not
    block other operations on the database while it is working.
    (Exceptions are those operations that need to operate with an
    exclusive lock, such as most forms of ALTER TABLE.)
@@ -105,20 +105,20 @@ pg_dump dbname > 
    Restoring the Dump
 
    
-    Text files created by pg_dump are intended to
+    Text files created by pg_dumpapplication> are intended to
     be read in by the psql program. The
     general command form to restore a dump is
 
 psql dbname < infile
 
     where infile is the
-    file output by the pg_dump command. The database 
+    file output by the pg_dumpapplication> command. The database 
     class="parameter">dbname will not be created by this
-    command, so you must create it yourself from template0
-    before executing psql (e.g., with
+    command, so you must create it yourself from template0literal>
+    before executing psqlapplication> (e.g., with
     createdb -T template0 
-    class="parameter">dbname>).  psql>
-    supports options similar to pg_dump for specifying
+    class="parameter">dbnamereplaceable>).  psql>
+    supports options similar to pg_dumpapplication> for specifying
     the database server to connect to and the user name to use. See
     the  reference page for more information.
     Non-text file dumps are restored using the 
@@ -134,10 +134,10 @@ psql dbname < 
    
 
    
-    By default, the psql script will continue to
+    By default, the psqlapplication> script will continue to
     execute after an SQL error is encountered. You might wish to run
     psql with
-    the ON_ERROR_STOP variable set to alter that
+    the ON_ERROR_STOPliteral> variable set to alter that
     behavior and have psql exit with an
     exit status of 3 if an SQL error occurs:
 
@@ -147,8 +147,8 @@ psql --set ON_ERROR_STOP=on dbname < infile
     Alternatively, you can specify that the whole dump should be
     restored as a single transaction, so the restore is either fully
     completed or fully rolled back. This mode can be specified by
-    passing the 
-    command-line options to psql. When using this
+    passing the 
+    command-line options to psqlapplication>. When using this
     mode, be aware that even a minor error can rollback a
     restore that has already run for many hours. However, that might
     still be preferable to manually cleaning up a complex database
@@ -156,22 +156,22 @@ psql --set ON_ERROR_STOP=on dbname < infile
    
 
    
-    The ability of pg_dump> and psql> to
+    The ability of pg_dumpapplication> and psql> to
     write to or read from pipes makes it possible to dump a database
     directly from one server to another, for example:
 
-pg_dump -h host1dbname | psql -h host2 dbname>
+pg_dump -h host1replaceable> dbname | psql -h host2 dbname>
 
    
 
    
     
-     The dumps produced by pg_dump are relative to
-     template0. This means that any languages, procedures,
-     etc. added via template1 will also be dumped by
-     pg_dump. As a result, when restoring, if you are
-     using a customized template1, you must create the
-     empty database from template0, as in the example
+     The dumps produced by pg_dumpapplication> are relative to
+     template0literal>. This means that any languages, procedures,
+     etc. added via template1literal> will also be dumped by
+     pg_dumpapplication>. As a result, when restoring, if you are
+     using a customized template1literal>, you must create the
+     empty database from template0literal>, as in the example
      above.
     
    
@@ -183,52 +183,52 @@ pg_dump -h host1 dbname | psql -h h
     see 
     and  for more information.
     For more advice on how to load large amounts of data
-    into PostgreSQL efficiently, refer to 
+    into PostgreSQLproductname> efficiently, refer to 
     linkend="populate">.
    
   
 
   
-   Using <application>pg_dumpall</>
+   Using <application>pg_dumpall</<span class="marked">application</span>>
 
    
-    pg_dump dumps only a single database at a time,
+    pg_dumpapplication> dumps only a single database at a time,
     and it does not dump information about roles or tablespaces
     (because those are cluster-wide rather than per-database).
     To support convenient dumping of the entire contents of a database
     cluster, the  program is provided.
-    pg_dumpall backs up each database in a given
+    pg_dumpallapplication> backs up each database in a given
     cluster, and also preserves cluster-wide data such as role and
     tablespace definitions. The basic usage of this command is:
 
-pg_dumpall > outfile
+pg_dumpall > outfilereplaceable>
 
-    The resulting dump can be restored with psql:
+    The resulting dump can be restored with psqlapplication>:
 
 psql -f infile postgres
 
     (Actually, you can specify any existing database name to start from,
-    but if you are loading into an empty cluster then postgres
+    but if you are loading into an empty cluster then postgresliteral>
     should usually be used.)  It is always necessary to have
-    database superuser access when restoring a pg_dumpall
+    database superuser access when restoring a pg_dumpallapplication>
     dump, as that is required to restore the role and tablespace information.
     If you use tablespaces, make sure that the tablespace paths in the
     dump are appropriate for the new installation.
    
 
    
-    pg_dumpall works by emitting commands to re-create
+    pg_dumpallapplication> works by emitting commands to re-create
     roles, tablespaces, and empty databases, then invoking
-    pg_dump for each database.  This means that while
+    pg_dumpapplication> for each database.  This means that while
     each database will be internally consistent, the snapshots of
     different databases are not synchronized.
    
 
    
     Cluster-wide data can be dumped alone using the
-    pg_dumpall
+    pg_dumpallapplication> 
     This is necessary to fully backup the cluster if running the
-    pg_dump command on individual databases.
+    pg_dumpapplication> command on individual databases.
    
   
 
@@ -237,8 +237,8 @@ psql -f infile postgres
 
    
     Some operating systems have maximum file size limits that cause
-    problems when creating large pg_dump output files.
-    Fortunately, pg_dump can write to the standard
+    problems when creating large pg_dumpapplication> output files.
+    Fortunately, pg_dumpapplication> can write to the standard
     output, so you can use standard Unix tools to work around this
     potential problem.  There are several possible methods:
    
@@ -268,7 +268,7 @@ cat filename.gz | gunzip | psql 
    
 
    
-    Use <command>split</>.
+    Use <command>split</<span class="marked">command</span>>.
     
      The split command
      allows you to split the output into smaller files that are
@@ -288,10 +288,10 @@ cat filename* | psql 
    
 
    
-    Use <application>pg_dump</>'s custom dump format.
+    Use <application>pg_dump</<span class="marked">application</span>>'s custom dump format.
     
      If PostgreSQL was built on a system with the
-     zlib compression library installed, the custom dump
+     zlibapplication> compression library installed, the custom dump
      format will compress data as it writes it to the output file. This will
      produce dump file sizes similar to using gzip, but it
      has the added advantage that tables can be restored selectively. The
@@ -301,8 +301,8 @@ cat filename* | psql 
 pg_dump -Fc dbname > filename
 
 
-     A custom-format dump is not a script for psql, but
-     instead must be restored with pg_restore, for example:
+     A custom-format dump is not a script for psqlapplication>, but
+     instead must be restored with pg_restoreapplication>, for example:
 
 
 pg_restore -d dbname filename
@@ -314,12 +314,12 @@ pg_restore -d dbname 
    
 
    
-    For very large databases, you might need to combine split
+    For very large databases, you might need to combine splitcommand>
     with one of the other two approaches.
    
 
    
-    Use <application>pg_dump</>'s parallel dump feature.
+    Use <application>pg_dump</<span class="marked">application</span>>'s parallel dump feature.
     
      To speed up the dump of a large database, you can use
      pg_dump's parallel mode. This will dump
@@ -344,7 +344,7 @@ pg_dump -j num -F d -f 
 
   
    An alternative backup strategy is to directly copy the files that
-   PostgreSQL uses to store the data in the database;
+   PostgreSQLproductname> uses to store the data in the database;
     explains where these files
    are located.  You can use whatever method you prefer
    for doing file system backups; for example:
@@ -356,13 +356,13 @@ tar -cf backup.tar /usr/local/pgsql/data
 
   
    There are two restrictions, however, which make this method
-   impractical, or at least inferior to the pg_dump
+   impractical, or at least inferior to the pg_dumpapplication>
    method:
 
    
     
      
-      The database server must be shut down in order to
+      The database server mustemphasis> be shut down in order to
       get a usable backup. Half-way measures such as disallowing all
       connections will not work
       (in part because tar and similar tools do not take
@@ -379,7 +379,7 @@ tar -cf backup.tar /usr/local/pgsql/data
       If you have dug into the details of the file system layout of the
       database, you might be tempted to try to back up or restore only certain
       individual tables or databases from their respective files or
-      directories. This will not work because the
+      directories. This will notemphasis> work because the
       information contained in these files is not usable without
       the commit log files,
       pg_xact/*, which contain the commit status of
@@ -399,7 +399,7 @@ tar -cf backup.tar /usr/local/pgsql/data
    consistent snapshot of the data directory, if the
    file system supports that functionality (and you are willing to
    trust that it is implemented correctly).  The typical procedure is
-   to make a frozen snapshot of the volume containing the
+   to make a frozen snapshotquote> of the volume containing the
    database, then copy the whole data directory (not just parts, see
    above) from the snapshot to a backup device, then release the frozen
    snapshot.  This will work even while the database server is running.
@@ -419,7 +419,7 @@ tar -cf backup.tar /usr/local/pgsql/data
    the volumes.  For example, if your data files and WAL log are on different
    disks, or if tablespaces are on different file systems, it might
    not be possible to use snapshot backup because the snapshots
-   must be simultaneous.
+   mustemphasis> be simultaneous.
    Read your file system documentation very carefully before trusting
    the consistent-snapshot technique in such situations.
   
@@ -435,13 +435,13 @@ tar -cf backup.tar /usr/local/pgsql/data
   
 
   
-   Another option is to use rsync to perform a file
-   system backup.  This is done by first running rsync
+   Another option is to use rsyncapplication> to perform a file
+   system backup.  This is done by first running rsyncapplication>
    while the database server is running, then shutting down the database
-   server long enough to do an rsync --checksum.
-   (
+   server long enough to do an rsync --checksumcommand>.
+   (
    has file modification-time granularity of one second.)  The
-   second rsync will be quicker than the first,
+   second rsyncapplication> will be quicker than the first,
    because it has relatively little data to transfer, and the end result
    will be consistent because the server was down.  This method
    allows a file system backup to be performed with minimal downtime.
@@ -471,12 +471,12 @@ tar -cf backup.tar /usr/local/pgsql/data
   
 
   
-   At all times, PostgreSQL maintains a
-   write ahead log> (WAL) in the pg_wal/>
+   At all times, PostgreSQLproductname> maintains a
+   write ahead logfirstterm> (WAL) in the pg_wal/>
    subdirectory of the cluster's data directory. The log records
    every change made to the database's data files.  This log exists
    primarily for crash-safety purposes: if the system crashes, the
-   database can be restored to consistency by replaying the
+   database can be restored to consistency by replayingquote> the
    log entries made since the last checkpoint.  However, the existence
    of the log makes it possible to use a third strategy for backing up
    databases: we can combine a file-system-level backup with backup of
@@ -492,7 +492,7 @@ tar -cf backup.tar /usr/local/pgsql/data
      Any internal inconsistency in the backup will be corrected by log
      replay (this is not significantly different from what happens during
      crash recovery).  So we do not need a file system snapshot capability,
-     just tar or a similar archiving tool.
+     just tarapplication> or a similar archiving tool.
     
    
    
@@ -508,7 +508,7 @@ tar -cf backup.tar /usr/local/pgsql/data
      It is not necessary to replay the WAL entries all the
      way to the end.  We could stop the replay at any point and have a
      consistent snapshot of the database as it was at that time.  Thus,
-     this technique supports point-in-time recovery: it is
+     this technique supports point-in-time recoveryfirstterm>: it is
      possible to restore the database to its state at any time since your base
      backup was taken.
     
@@ -517,7 +517,7 @@ tar -cf backup.tar /usr/local/pgsql/data
     
      If we continuously feed the series of WAL files to another
      machine that has been loaded with the same base backup file, we
-     have a warm standby system: at any point we can bring up
+     have a warm standbyfirstterm> system: at any point we can bring up
      the second machine and it will have a nearly-current copy of the
      database.
     
@@ -530,7 +530,7 @@ tar -cf backup.tar /usr/local/pgsql/data
     pg_dump and
     pg_dumpall do not produce file-system-level
     backups and cannot be used as part of a continuous-archiving solution.
-    Such dumps are logical and do not contain enough
+    Such dumps are logicalemphasis> and do not contain enough
     information to be used by WAL replay.
    
   
@@ -546,10 +546,10 @@ tar -cf backup.tar /usr/local/pgsql/data
 
   
    To recover successfully using continuous archiving (also called
-   online backup by many database vendors), you need a continuous
+   online backupquote> by many database vendors), you need a continuous
    sequence of archived WAL files that extends back at least as far as the
    start time of your backup.  So to get started, you should set up and test
-   your procedure for archiving WAL files before you take your
+   your procedure for archiving WAL files beforeemphasis> you take your
    first base backup.  Accordingly, we first discuss the mechanics of
    archiving WAL files.
   
@@ -558,15 +558,15 @@ tar -cf backup.tar /usr/local/pgsql/data
    Setting Up WAL Archiving
 
    
-    In an abstract sense, a running PostgreSQL system
+    In an abstract sense, a running PostgreSQLproductname> system
     produces an indefinitely long sequence of WAL records.  The system
     physically divides this sequence into WAL segment
-    files, which are normally 16MB apiece (although the segment size
-    can be altered during initdb).  The segment
+    filesfirstterm>, which are normally 16MB apiece (although the segment size
+    can be altered during initdbapplication>).  The segment
     files are given numeric names that reflect their position in the
     abstract WAL sequence.  When not using WAL archiving, the system
     normally creates just a few segment files and then
-    recycles them by renaming no-longer-needed segment files
+    recyclesquote> them by renaming no-longer-needed segment files
     to higher segment numbers.  It's assumed that segment files whose
     contents precede the checkpoint-before-last are no longer of
     interest and can be recycled.
@@ -577,33 +577,33 @@ tar -cf backup.tar /usr/local/pgsql/data
     file once it is filled, and save that data somewhere before the segment
     file is recycled for reuse.  Depending on the application and the
     available hardware, there could be many different ways of saving
-    the data somewhere: we could copy the segment files to an NFS-mounted
+    the data somewherequote>: we could copy the segment files to an NFS-mounted
     directory on another machine, write them onto a tape drive (ensuring that
     you have a way of identifying the original name of each file), or batch
     them together and burn them onto CDs, or something else entirely.  To
     provide the database administrator with flexibility,
-    PostgreSQL tries not to make any assumptions about how
-    the archiving will be done.  Instead, PostgreSQL lets
+    PostgreSQLproductname> tries not to make any assumptions about how
+    the archiving will be done.  Instead, PostgreSQLproductname> lets
     the administrator specify a shell command to be executed to copy a
     completed segment file to wherever it needs to go.  The command could be
-    as simple as a cp, or it could invoke a complex shell
+    as simple as a cpliteral>, or it could invoke a complex shell
     script — it's all up to you.
    
 
    
     To enable WAL archiving, set the 
-    configuration parameter to replica or higher,
-     to on,
+    configuration parameter to replicaliteral> or higher,
+     to onliteral>,
     and specify the shell command to use in the 
     linkend="guc-archive-command"> configuration parameter.  In practice
     these settings will always be placed in the
     postgresql.conf file.
-    In archive_command,
-    %p is replaced by the path name of the file to
-    archive, while %f is replaced by only the file name.
+    In archive_commandvarname>,
+    %pliteral> is replaced by the path name of the file to
+    archive, while %fliteral> is replaced by only the file name.
     (The path name is relative to the current working directory,
     i.e., the cluster's data directory.)
-    Use %%> if you need to embed an actual %>
+    Use %%literal> if you need to embed an actual %>
     character in the command.  The simplest useful command is something
     like:
 
@@ -611,9 +611,9 @@ archive_command = 'test ! -f /mnt/server/archivedir/%f && cp %p /mnt/ser
 archive_command = 'copy "%p" "C:\\server\\archivedir\\%f"'  # Windows
 
     which will copy archivable WAL segments to the directory
-    /mnt/server/archivedir.  (This is an example, not a
+    /mnt/server/archivedirfilename>.  (This is an example, not a
     recommendation, and might not work on all platforms.)  After the
-    %p> and %f> parameters have been replaced,
+    %pliteral> and %f> parameters have been replaced,
     the actual command executed might look like this:
 
 test ! -f /mnt/server/archivedir/00000001000000A900000065 && cp pg_wal/00000001000000A900000065 /mnt/server/archivedir/00000001000000A900000065
@@ -623,7 +623,7 @@ test ! -f /mnt/server/archivedir/00000001000000A900000065 && cp pg_wal/0
 
    
     The archive command will be executed under the ownership of the same
-    user that the PostgreSQL server is running as.  Since
+    user that the PostgreSQLproductname> server is running as.  Since
     the series of WAL files being archived contains effectively everything
     in your database, you will want to be sure that the archived data is
     protected from prying eyes; for example, archive into a directory that
@@ -633,9 +633,9 @@ test ! -f /mnt/server/archivedir/00000001000000A900000065 && cp pg_wal/0
    
     It is important that the archive command return zero exit status if and
     only if it succeeds.  Upon getting a zero result,
-    PostgreSQL will assume that the file has been
+    PostgreSQLproductname> will assume that the file has been
     successfully archived, and will remove or recycle it.  However, a nonzero
-    status tells PostgreSQL that the file was not archived;
+    status tells PostgreSQLproductname> that the file was not archived;
     it will try again periodically until it succeeds.
    
 
@@ -650,14 +650,14 @@ test ! -f /mnt/server/archivedir/00000001000000A900000065 && cp pg_wal/0
    
     It is advisable to test your proposed archive command to ensure that it
     indeed does not overwrite an existing file, and that it returns
-    nonzero status in this case.
+    nonzero status in this caseemphasis>.
     The example command above for Unix ensures this by including a separate
-    test> step.  On some Unix platforms, cp> has
-    switches such as 
+    testcommand> step.  On some Unix platforms, cp> has
+    switches such as 
     less verbosely, but you should not rely on these without verifying that
-    the right exit status is returned.  (In particular, GNU cp
-    will return status zero when 
-    already exists, which is not the desired behavior.)
+    the right exit status is returned.  (In particular, GNU cpcommand>
+    will return status zero when 
+    already exists, which is notemphasis> the desired behavior.)
    
 
    
@@ -668,10 +668,10 @@ test ! -f /mnt/server/archivedir/00000001000000A900000065 && cp pg_wal/0
     fills, nothing further can be archived until the tape is swapped.
     You should ensure that any error condition or request to a human operator
     is reported appropriately so that the situation can be
-    resolved reasonably quickly. The pg_wal/ directory will
+    resolved reasonably quickly. The pg_wal/filename> directory will
     continue to fill with WAL segment files until the situation is resolved.
-    (If the file system containing pg_wal/ fills up,
-    PostgreSQL will do a PANIC shutdown.  No committed
+    (If the file system containing pg_wal/filename> fills up,
+    PostgreSQLproductname> will do a PANIC shutdown.  No committed
     transactions will be lost, but the database will remain offline until
     you free some space.)
    
@@ -682,7 +682,7 @@ test ! -f /mnt/server/archivedir/00000001000000A900000065 && cp pg_wal/0
     operation continues even if the archiving process falls a little behind.
     If archiving falls significantly behind, this will increase the amount of
     data that would be lost in the event of a disaster. It will also mean that
-    the pg_wal/ directory will contain large numbers of
+    the pg_wal/filename> directory will contain large numbers of
     not-yet-archived segment files, which could eventually exceed available
     disk space. You are advised to monitor the archiving process to ensure that
     it is working as you intend.
@@ -692,16 +692,16 @@ test ! -f /mnt/server/archivedir/00000001000000A900000065 && cp pg_wal/0
     In writing your archive command, you should assume that the file names to
     be archived can be up to 64 characters long and can contain any
     combination of ASCII letters, digits, and dots.  It is not necessary to
-    preserve the original relative path (%p) but it is necessary to
-    preserve the file name (%f).
+    preserve the original relative path (%pliteral>) but it is necessary to
+    preserve the file name (%fliteral>).
    
 
    
     Note that although WAL archiving will allow you to restore any
-    modifications made to the data in your PostgreSQL database,
+    modifications made to the data in your PostgreSQLproductname> database,
     it will not restore changes made to configuration files (that is,
-    postgresql.conf>, pg_hba.conf> and
-    pg_ident.conf), since those are edited manually rather
+    postgresql.conffilename>, pg_hba.conf> and
+    pg_ident.conffilename>), since those are edited manually rather
     than through SQL operations.
     You might wish to keep the configuration files in a location that will
     be backed up by your regular file system backup procedures.  See
@@ -719,32 +719,32 @@ test ! -f /mnt/server/archivedir/00000001000000A900000065 && cp pg_wal/0
     to a new WAL segment file at least that often.  Note that archived
     files that are archived early due to a forced switch are still the same
     length as completely full files.  It is therefore unwise to set a very
-    short archive_timeout — it will bloat your archive
-    storage.  archive_timeout settings of a minute or so are
+    short archive_timeoutvarname> — it will bloat your archive
+    storage.  archive_timeoutvarname> settings of a minute or so are
     usually reasonable.
    
 
    
     Also, you can force a segment switch manually with
-    pg_switch_wal if you want to ensure that a
+    pg_switch_walfunction> if you want to ensure that a
     just-finished transaction is archived as soon as possible.  Other utility
     functions related to WAL management are listed in 
     linkend="functions-admin-backup-table">.
    
 
    
-    When wal_level> is minimal> some SQL commands
+    When wal_levelvarname> is minimal> some SQL commands
     are optimized to avoid WAL logging, as described in 
     linkend="populate-pitr">.  If archiving or streaming replication were
     turned on during execution of one of these statements, WAL would not
     contain enough information for archive recovery.  (Crash recovery is
-    unaffected.)  For this reason, wal_level can only be changed at
-    server start.  However, archive_command can be changed with a
+    unaffected.)  For this reason, wal_levelvarname> can only be changed at
+    server start.  However, archive_commandvarname> can be changed with a
     configuration file reload.  If you wish to temporarily stop archiving,
-    one way to do it is to set archive_command to the empty
-    string ('').
-    This will cause WAL files to accumulate in pg_wal/ until a
-    working archive_command is re-established.
+    one way to do it is to set archive_commandvarname> to the empty
+    string (''literal>).
+    This will cause WAL files to accumulate in pg_wal/filename> until a
+    working archive_commandvarname> is re-established.
    
   
 
@@ -763,8 +763,8 @@ test ! -f /mnt/server/archivedir/00000001000000A900000065 && cp pg_wal/0
    
     It is not necessary to be concerned about the amount of time it takes
     to make a base backup. However, if you normally run the
-    server with full_page_writes disabled, you might notice a drop
-    in performance while the backup runs since full_page_writes is
+    server with full_page_writesvarname> disabled, you might notice a drop
+    in performance while the backup runs since full_page_writesvarname> is
     effectively forced on during backup mode.
    
 
@@ -772,13 +772,13 @@ test ! -f /mnt/server/archivedir/00000001000000A900000065 && cp pg_wal/0
     To make use of the backup, you will need to keep all the WAL
     segment files generated during and after the file system backup.
     To aid you in doing this, the base backup process
-    creates a backup history file that is immediately
+    creates a backup history filefirstterm> that is immediately
     stored into the WAL archive area. This file is named after the first
     WAL segment file that you need for the file system backup.
     For example, if the starting WAL file is
-    0000000100001234000055CD the backup history file will be
+    0000000100001234000055CDliteral> the backup history file will be
     named something like
-    0000000100001234000055CD.007C9330.backup. (The second
+    0000000100001234000055CD.007C9330.backupliteral>. (The second
     part of the file name stands for an exact position within the WAL
     file, and can ordinarily be ignored.) Once you have safely archived
     the file system backup and the WAL segment files used during the
@@ -847,14 +847,14 @@ test ! -f /mnt/server/archivedir/00000001000000A900000065 && cp pg_wal/0
 
 SELECT pg_start_backup('label', false, false);
 
-     where label is any string you want to use to uniquely
+     where labelliteral> is any string you want to use to uniquely
      identify this backup operation. The connection
-     calling pg_start_backup must be maintained until the end of
+     calling pg_start_backupfunction> must be maintained until the end of
      the backup, or the backup will be automatically aborted.
     
 
     
-     By default, pg_start_backup can take a long time to finish.
+     By default, pg_start_backupfunction> can take a long time to finish.
      This is because it performs a checkpoint, and the I/O
      required for the checkpoint will be spread out over a significant
      period of time, by default half your inter-checkpoint interval
@@ -862,19 +862,19 @@ SELECT pg_start_backup('label', false, false);
      ).  This is
      usually what you want, because it minimizes the impact on query
      processing.  If you want to start the backup as soon as
-     possible, change the second parameter to true, which will
+     possible, change the second parameter to trueliteral>, which will
      issue an immediate checkpoint using as much I/O as available.
     
 
     
-     The third parameter being false tells
-     pg_start_backup to initiate a non-exclusive base backup.
+     The third parameter being falseliteral> tells
+     pg_start_backupfunction> to initiate a non-exclusive base backup.
     
    
    
     
      Perform the backup, using any convenient file-system-backup tool
-     such as tar> or cpio> (not
+     such as tarapplication> or cpio> (not
      pg_dump or
      pg_dumpall).  It is neither
      necessary nor desirable to stop normal operation of the database
@@ -898,45 +898,45 @@ SELECT * FROM pg_stop_backup(false, true);
      ready to archive.
     
     
-     The pg_stop_backup will return one row with three
+     The pg_stop_backupfunction> will return one row with three
      values. The second of these fields should be written to a file named
-     backup_label in the root directory of the backup. The
+     backup_labelfilename> in the root directory of the backup. The
      third field should be written to a file named
-     tablespace_map unless the field is empty. These files are
+     tablespace_mapfilename> unless the field is empty. These files are
      vital to the backup working, and must be written without modification.
     
    
    
     
      Once the WAL segment files active during the backup are archived, you are
-     done.  The file identified by pg_stop_backup's first return
+     done.  The file identified by pg_stop_backupfunction>'s first return
      value is the last segment that is required to form a complete set of
-     backup files.  On a primary, if archive_mode is enabled and the
-     wait_for_archive> parameter is true>,
-     pg_stop_backup does not return until the last segment has
+     backup files.  On a primary, if archive_modevarname> is enabled and the
+     wait_for_archiveliteral> parameter is true>,
+     pg_stop_backupfunction> does not return until the last segment has
      been archived.
-     On a standby, archive_mode> must be always> in order
-     for pg_stop_backup to wait.
+     On a standby, archive_modevarname> must be always> in order
+     for pg_stop_backupfunction> to wait.
      Archiving of these files happens automatically since you have
-     already configured archive_command. In most cases this
+     already configured archive_commandvarname>. In most cases this
      happens quickly, but you are advised to monitor your archive
      system to ensure there are no delays.
      If the archive process has fallen behind
      because of failures of the archive command, it will keep retrying
      until the archive succeeds and the backup is complete.
      If you wish to place a time limit on the execution of
-     pg_stop_backup, set an appropriate
+     pg_stop_backupfunction>, set an appropriate
      statement_timeout value, but make note that if
-     pg_stop_backup terminates because of this your backup
+     pg_stop_backupfunction> terminates because of this your backup
      may not be valid.
     
     
      If the backup process monitors and ensures that all WAL segment files
      required for the backup are successfully archived then the
-     wait_for_archive parameter (which defaults to true) can be set
+     wait_for_archiveliteral> parameter (which defaults to true) can be set
      to false to have
-     pg_stop_backup return as soon as the stop backup record is
-     written to the WAL.  By default, pg_stop_backup will wait
+     pg_stop_backupfunction> return as soon as the stop backup record is
+     written to the WAL.  By default, pg_stop_backupfunction> will wait
      until all WAL has been archived, which can take some time.  This option
      must be used with caution: if WAL archiving is not monitored correctly
      then the backup might not include all of the WAL files and will
@@ -952,7 +952,7 @@ SELECT * FROM pg_stop_backup(false, true);
      The process for an exclusive backup is mostly the same as for a
      non-exclusive one, but it differs in a few key steps. This type of backup
      can only be taken on a primary and does not allow concurrent backups.
-     Prior to PostgreSQL 9.6, this
+     Prior to PostgreSQLproductname> 9.6, this
      was the only low-level method available, but it is now recommended that
      all users upgrade their scripts to use non-exclusive backups if possible.
     
@@ -971,20 +971,20 @@ SELECT * FROM pg_stop_backup(false, true);
 
 SELECT pg_start_backup('label');
 
-     where label is any string you want to use to uniquely
+     where labelliteral> is any string you want to use to uniquely
      identify this backup operation.
-     pg_start_backup> creates a backup label> file,
-     called backup_label, in the cluster directory with
+     pg_start_backupfunction> creates a backup label> file,
+     called backup_labelfilename>, in the cluster directory with
      information about your backup, including the start time and label string.
-     The function also creates a tablespace map file,
-     called tablespace_map, in the cluster directory with
-     information about tablespace symbolic links in pg_tblspc/ if
+     The function also creates a tablespace mapfirstterm> file,
+     called tablespace_mapfilename>, in the cluster directory with
+     information about tablespace symbolic links in pg_tblspc/filename> if
      one or more such link is present.  Both files are critical to the
      integrity of the backup, should you need to restore from it.
     
 
     
-     By default, pg_start_backup can take a long time to finish.
+     By default, pg_start_backupfunction> can take a long time to finish.
      This is because it performs a checkpoint, and the I/O
      required for the checkpoint will be spread out over a significant
      period of time, by default half your inter-checkpoint interval
@@ -1002,7 +1002,7 @@ SELECT pg_start_backup('label', true);
    
     
      Perform the backup, using any convenient file-system-backup tool
-     such as tar> or cpio> (not
+     such as tarapplication> or cpio> (not
      pg_dump or
      pg_dumpall).  It is neither
      necessary nor desirable to stop normal operation of the database
@@ -1012,7 +1012,7 @@ SELECT pg_start_backup('label', true);
     
     
       Note that if the server crashes during the backup it may not be
-      possible to restart until the backup_label file has been
+      possible to restart until the backup_labelliteral> file has been
       manually deleted from the PGDATA directory.
     
    
@@ -1033,22 +1033,22 @@ SELECT pg_stop_backup();
    
     
      Once the WAL segment files active during the backup are archived, you are
-     done.  The file identified by pg_stop_backup's result is
+     done.  The file identified by pg_stop_backupfunction>'s result is
      the last segment that is required to form a complete set of backup files.
-     If archive_mode is enabled,
-     pg_stop_backup does not return until the last segment has
+     If archive_modevarname> is enabled,
+     pg_stop_backupfunction> does not return until the last segment has
      been archived.
      Archiving of these files happens automatically since you have
-     already configured archive_command. In most cases this
+     already configured archive_commandvarname>. In most cases this
      happens quickly, but you are advised to monitor your archive
      system to ensure there are no delays.
      If the archive process has fallen behind
      because of failures of the archive command, it will keep retrying
      until the archive succeeds and the backup is complete.
      If you wish to place a time limit on the execution of
-     pg_stop_backup, set an appropriate
+     pg_stop_backupfunction>, set an appropriate
      statement_timeout value, but make note that if
-     pg_stop_backup terminates because of this your backup
+     pg_stop_backupfunction> terminates because of this your backup
      may not be valid.
     
    
@@ -1063,21 +1063,21 @@ SELECT pg_stop_backup();
     When taking a base backup of an active database, this situation is normal
     and not an error.  However, you need to ensure that you can distinguish
     complaints of this sort from real errors.  For example, some versions
-    of rsync return a separate exit code for
-    vanished source files, and you can write a driver script to
+    of rsyncapplication> return a separate exit code for
+    vanished source filesquote>, and you can write a driver script to
     accept this exit code as a non-error case.  Also, some versions of
-    GNU tar return an error code indistinguishable from
-    a fatal error if a file was truncated while tar was
-    copying it.  Fortunately, GNU tar versions 1.16 and
+    GNU tarapplication> return an error code indistinguishable from
+    a fatal error if a file was truncated while tarapplication> was
+    copying it.  Fortunately, GNU tarapplication> versions 1.16 and
     later exit with 1 if a file was changed during the backup,
-    and 2 for other errors.  With GNU tar version 1.23 and
+    and 2 for other errors.  With GNU tarapplication> version 1.23 and
     later, you can use the warning options --warning=no-file-changed
     --warning=no-file-removed to hide the related warning messages.
    
 
    
     Be certain that your backup includes all of the files under
-    the database cluster directory (e.g., /usr/local/pgsql/data).
+    the database cluster directory (e.g., /usr/local/pgsql/datafilename>).
     If you are using tablespaces that do not reside underneath this directory,
     be careful to include them as well (and be sure that your backup
     archives symbolic links as links, otherwise the restore will corrupt
@@ -1086,21 +1086,21 @@ SELECT pg_stop_backup();
 
    
     You should, however, omit from the backup the files within the
-    cluster's pg_wal/ subdirectory.  This
+    cluster's pg_wal/filename> subdirectory.  This
     slight adjustment is worthwhile because it reduces the risk
     of mistakes when restoring.  This is easy to arrange if
-    pg_wal/ is a symbolic link pointing to someplace outside
+    pg_wal/filename> is a symbolic link pointing to someplace outside
     the cluster directory, which is a common setup anyway for performance
-    reasons.  You might also want to exclude postmaster.pid
-    and postmaster.opts, which record information
-    about the running postmaster, not about the
-    postmaster which will eventually use this backup.
-    (These files can confuse pg_ctl.)
+    reasons.  You might also want to exclude postmaster.pidfilename>
+    and postmaster.optsfilename>, which record information
+    about the running postmasterapplication>, not about the
+    postmasterapplication> which will eventually use this backup.
+    (These files can confuse pg_ctlapplication>.)
    
 
    
     It is often a good idea to also omit from the backup the files
-    within the cluster's pg_replslot/ directory, so that
+    within the cluster's pg_replslot/filename> directory, so that
     replication slots that exist on the master do not become part of the
     backup.  Otherwise, the subsequent use of the backup to create a standby
     may result in indefinite retention of WAL files on the standby, and
@@ -1114,10 +1114,10 @@ SELECT pg_stop_backup();
    
 
    
-    The contents of the directories pg_dynshmem/,
-    pg_notify/>, pg_serial/>,
-    pg_snapshots/>, pg_stat_tmp/>,
-    and pg_subtrans/ (but not the directories themselves) can be
+    The contents of the directories pg_dynshmem/filename>,
+    pg_notify/filename>, pg_serial/>,
+    pg_snapshots/filename>, pg_stat_tmp/>,
+    and pg_subtrans/filename> (but not the directories themselves) can be
     omitted from the backup as they will be initialized on postmaster startup.
     If  is set and is under the data
     directory then the contents of that directory can also be omitted.
@@ -1131,13 +1131,13 @@ SELECT pg_stop_backup();
 
    
     The backup label
-    file includes the label string you gave to pg_start_backup,
-    as well as the time at which pg_start_backup was run, and
+    file includes the label string you gave to pg_start_backupfunction>,
+    as well as the time at which pg_start_backupfunction> was run, and
     the name of the starting WAL file.  In case of confusion it is therefore
     possible to look inside a backup file and determine exactly which
     backup session the dump file came from.  The tablespace map file includes
     the symbolic link names as they exist in the directory
-    pg_tblspc/ and the full path of each symbolic link.
+    pg_tblspc/filename> and the full path of each symbolic link.
     These files are not merely for your information; their presence and
     contents are critical to the proper operation of the system's recovery
     process.
@@ -1146,7 +1146,7 @@ SELECT pg_stop_backup();
    
     It is also possible to make a backup while the server is
     stopped.  In this case, you obviously cannot use
-    pg_start_backup> or pg_stop_backup>, and
+    pg_start_backupfunction> or pg_stop_backup>, and
     you will therefore be left to your own devices to keep track of which
     backup is which and how far back the associated WAL files go.
     It is generally better to follow the continuous archiving procedure above.
@@ -1173,7 +1173,7 @@ SELECT pg_stop_backup();
      location in case you need them later. Note that this precaution will
      require that you have enough free space on your system to hold two
      copies of your existing database. If you do not have enough space,
-     you should at least save the contents of the cluster's pg_wal
+     you should at least save the contents of the cluster's pg_walfilename>
      subdirectory, as it might contain logs which
      were not archived before the system went down.
     
@@ -1188,17 +1188,17 @@ SELECT pg_stop_backup();
     
      Restore the database files from your file system backup.  Be sure that they
      are restored with the right ownership (the database system user, not
-     root!) and with the right permissions.  If you are using
+     rootliteral>!) and with the right permissions.  If you are using
      tablespaces,
-     you should verify that the symbolic links in pg_tblspc/
+     you should verify that the symbolic links in pg_tblspc/filename>
      were correctly restored.
     
    
    
     
-     Remove any files present in pg_wal/; these came from the
+     Remove any files present in pg_wal/filename>; these came from the
      file system backup and are therefore probably obsolete rather than current.
-     If you didn't archive pg_wal/ at all, then recreate
+     If you didn't archive pg_wal/filename> at all, then recreate
      it with proper permissions,
      being careful to ensure that you re-establish it as a symbolic link
      if you had it set up that way before.
@@ -1207,16 +1207,16 @@ SELECT pg_stop_backup();
    
     
      If you have unarchived WAL segment files that you saved in step 2,
-     copy them into pg_wal/.  (It is best to copy them,
+     copy them into pg_wal/filename>.  (It is best to copy them,
      not move them, so you still have the unmodified files if a
      problem occurs and you have to start over.)
     
    
    
     
-     Create a recovery command file recovery.conf in the cluster
+     Create a recovery command file recovery.conffilename> in the cluster
      data directory (see ). You might
-     also want to temporarily modify pg_hba.conf to prevent
+     also want to temporarily modify pg_hba.conffilename> to prevent
      ordinary users from connecting until you are sure the recovery was successful.
     
    
@@ -1227,7 +1227,7 @@ SELECT pg_stop_backup();
      recovery be terminated because of an external error, the server can
      simply be restarted and it will continue recovery.  Upon completion
      of the recovery process, the server will rename
-     recovery.conf> to recovery.done> (to prevent
+     recovery.conffilename> to recovery.done> (to prevent
      accidentally re-entering recovery mode later) and then
      commence normal database operations.
     
@@ -1236,7 +1236,7 @@ SELECT pg_stop_backup();
     
      Inspect the contents of the database to ensure you have recovered to
      the desired state.  If not, return to step 1.  If all is well,
-     allow your users to connect by restoring pg_hba.conf to normal.
+     allow your users to connect by restoring pg_hba.conffilename> to normal.
     
    
   
@@ -1245,32 +1245,32 @@ SELECT pg_stop_backup();
    
     The key part of all this is to set up a recovery configuration file that
     describes how you want to recover and how far the recovery should
-    run.  You can use recovery.conf.sample (normally
-    located in the installation's share/ directory) as a
+    run.  You can use recovery.conf.samplefilename> (normally
+    located in the installation's share/filename> directory) as a
     prototype.  The one thing that you absolutely must specify in
-    recovery.conf> is the restore_command>,
-    which tells PostgreSQL how to retrieve archived
-    WAL file segments.  Like the archive_command, this is
-    a shell command string.  It can contain %f, which is
-    replaced by the name of the desired log file, and %p,
+    recovery.conffilename> is the restore_command>,
+    which tells PostgreSQLproductname> how to retrieve archived
+    WAL file segments.  Like the archive_commandvarname>, this is
+    a shell command string.  It can contain %fliteral>, which is
+    replaced by the name of the desired log file, and %pliteral>,
     which is replaced by the path name to copy the log file to.
     (The path name is relative to the current working directory,
     i.e., the cluster's data directory.)
-    Write %%> if you need to embed an actual %>
+    Write %%literal> if you need to embed an actual %>
     character in the command.  The simplest useful command is
     something like:
 
 restore_command = 'cp /mnt/server/archivedir/%f %p'
 
     which will copy previously archived WAL segments from the directory
-    /mnt/server/archivedir.  Of course, you can use something
+    /mnt/server/archivedirfilename>.  Of course, you can use something
     much more complicated, perhaps even a shell script that requests the
     operator to mount an appropriate tape.
    
 
    
     It is important that the command return nonzero exit status on failure.
-    The command will be called requesting files that are not
+    The command willemphasis> be called requesting files that are not
     present in the archive; it must return nonzero when so asked.  This is not
     an error condition.  An exception is that if the command was terminated by
     a signal (other than SIGTERM, which is used as
@@ -1282,27 +1282,27 @@ restore_command = 'cp /mnt/server/archivedir/%f %p'
    
     Not all of the requested files will be WAL segment
     files; you should also expect requests for files with a suffix of
-    .backup> or .history>. Also be aware that
-    the base name of the %p path will be different from
-    %f; do not expect them to be interchangeable.
+    .backupliteral> or .history>. Also be aware that
+    the base name of the %pliteral> path will be different from
+    %fliteral>; do not expect them to be interchangeable.
    
 
    
     WAL segments that cannot be found in the archive will be sought in
-    pg_wal/; this allows use of recent un-archived segments.
+    pg_wal/filename>; this allows use of recent un-archived segments.
     However, segments that are available from the archive will be used in
-    preference to files in pg_wal/.
+    preference to files in pg_wal/filename>.
    
 
    
     Normally, recovery will proceed through all available WAL segments,
     thereby restoring the database to the current point in time (or as
     close as possible given the available WAL segments).  Therefore, a normal
-    recovery will end with a file not found message, the exact text
+    recovery will end with a file not foundquote> message, the exact text
     of the error message depending upon your choice of
-    restore_command.  You may also see an error message
+    restore_commandvarname>.  You may also see an error message
     at the start of recovery for a file named something like
-    00000001.history.  This is also normal and does not
+    00000001.historyfilename>.  This is also normal and does not
     indicate a problem in simple recovery situations; see
      for discussion.
    
@@ -1310,8 +1310,8 @@ restore_command = 'cp /mnt/server/archivedir/%f %p'
    
     If you want to recover to some previous point in time (say, right before
     the junior DBA dropped your main transaction table), just specify the
-    required stopping point in recovery.conf.  You can specify
-    the stop point, known as the recovery target, either by
+    required stopping point in recovery.conffilename>.  You can specify
+    the stop point, known as the recovery targetquote>, either by
     date/time, named restore point or by completion of a specific transaction
     ID.  As of this writing only the date/time and named restore point options
     are very usable, since there are no tools to help you identify with any
@@ -1321,7 +1321,7 @@ restore_command = 'cp /mnt/server/archivedir/%f %p'
    
      
       The stop point must be after the ending time of the base backup, i.e.,
-      the end time of pg_stop_backup.  You cannot use a base backup
+      the end time of pg_stop_backupfunction>.  You cannot use a base backup
       to recover to a time when that backup was in progress.  (To
       recover to such a time, you must go back to your previous base backup
       and roll forward from there.)
@@ -1332,14 +1332,14 @@ restore_command = 'cp /mnt/server/archivedir/%f %p'
     If recovery finds corrupted WAL data, recovery will
     halt at that point and the server will not start. In such a case the
     recovery process could be re-run from the beginning, specifying a
-    recovery target before the point of corruption so that recovery
+    recovery targetquote> before the point of corruption so that recovery
     can complete normally.
     If recovery fails for an external reason, such as a system crash or
     if the WAL archive has become inaccessible, then the recovery can simply
     be restarted and it will restart almost from where it failed.
     Recovery restart works much like checkpointing in normal operation:
     the server periodically forces all its state to disk, and then updates
-    the pg_control file to indicate that the already-processed
+    the pg_controlfilename> file to indicate that the already-processed
     WAL data need not be scanned again.
    
 
@@ -1359,7 +1359,7 @@ restore_command = 'cp /mnt/server/archivedir/%f %p'
     suppose you dropped a critical table at 5:15PM on Tuesday evening, but
     didn't realize your mistake until Wednesday noon.
     Unfazed, you get out your backup, restore to the point-in-time 5:14PM
-    Tuesday evening, and are up and running.  In this history of
+    Tuesday evening, and are up and running.  In thisemphasis> history of
     the database universe, you never dropped the table.  But suppose
     you later realize this wasn't such a great idea, and would like
     to return to sometime Wednesday morning in the original history.
@@ -1372,8 +1372,8 @@ restore_command = 'cp /mnt/server/archivedir/%f %p'
    
 
    
-    To deal with this problem, PostgreSQL has a notion
-    of timelines.  Whenever an archive recovery completes,
+    To deal with this problem, PostgreSQLproductname> has a notion
+    of timelinesfirstterm>.  Whenever an archive recovery completes,
     a new timeline is created to identify the series of WAL records
     generated after that recovery.  The timeline
     ID number is part of WAL segment file names so a new timeline does
@@ -1384,13 +1384,13 @@ restore_command = 'cp /mnt/server/archivedir/%f %p'
     and so have to do several point-in-time recoveries by trial and error
     until you find the best place to branch off from the old history.  Without
     timelines this process would soon generate an unmanageable mess.  With
-    timelines, you can recover to any prior state, including
+    timelines, you can recover to anyemphasis> prior state, including
     states in timeline branches that you abandoned earlier.
    
 
    
-    Every time a new timeline is created, PostgreSQL creates
-    a timeline history file that shows which timeline it branched
+    Every time a new timeline is created, PostgreSQLproductname> creates
+    a timeline historyquote> file that shows which timeline it branched
     off from and when.  These history files are necessary to allow the system
     to pick the right WAL segment files when recovering from an archive that
     contains multiple timelines.  Therefore, they are archived into the WAL
@@ -1408,7 +1408,7 @@ restore_command = 'cp /mnt/server/archivedir/%f %p'
     that was current when the base backup was taken.  If you wish to recover
     into some child timeline (that is, you want to return to some state that
     was itself generated after a recovery attempt), you need to specify the
-    target timeline ID in recovery.conf.  You cannot recover into
+    target timeline ID in recovery.conffilename>.  You cannot recover into
     timelines that branched off earlier than the base backup.
    
   
@@ -1424,18 +1424,18 @@ restore_command = 'cp /mnt/server/archivedir/%f %p'
      Standalone Hot Backups
 
      
-      It is possible to use PostgreSQL's backup facilities to
+      It is possible to use PostgreSQLproductname>'s backup facilities to
       produce standalone hot backups. These are backups that cannot be used
       for point-in-time recovery, yet are typically much faster to backup and
-      restore than pg_dump dumps.  (They are also much larger
-      than pg_dump dumps, so in some cases the speed advantage
+      restore than pg_dumpapplication> dumps.  (They are also much larger
+      than pg_dumpapplication> dumps, so in some cases the speed advantage
       might be negated.)
      
 
      
       As with base backups, the easiest way to produce a standalone
       hot backup is to use the 
-      tool. If you include the -X parameter when calling
+      tool. If you include the -Xliteral> parameter when calling
       it, all the write-ahead log required to use the backup will be
       included in the backup automatically, and no special action is
       required to restore the backup.
@@ -1445,16 +1445,16 @@ restore_command = 'cp /mnt/server/archivedir/%f %p'
       If more flexibility in copying the backup files is needed, a lower
       level process can be used for standalone hot backups as well.
       To prepare for low level standalone hot backups, make sure
-      wal_level is set to
-      replica> or higher, archive_mode> to
-      on>, and set up an archive_command> that performs
-      archiving only when a switch file exists.  For example:
+      wal_levelvarname> is set to
+      replicaliteral> or higher, archive_mode> to
+      onliteral>, and set up an archive_command> that performs
+      archiving only when a switch fileemphasis> exists.  For example:
 
 archive_command = 'test ! -f /var/lib/pgsql/backup_in_progress || (test ! -f /var/lib/pgsql/archive/%f && cp %p /var/lib/pgsql/archive/%f)'
 
       This command will perform archiving when
-      /var/lib/pgsql/backup_in_progress exists, and otherwise
-      silently return zero exit status (allowing PostgreSQL
+      /var/lib/pgsql/backup_in_progressfilename> exists, and otherwise
+      silently return zero exit status (allowing PostgreSQLproductname>
       to recycle the unwanted WAL file).
      
 
@@ -1469,11 +1469,11 @@ psql -c "select pg_stop_backup();"
 rm /var/lib/pgsql/backup_in_progress
 tar -rf /var/lib/pgsql/backup.tar /var/lib/pgsql/archive/
 
-      The switch file /var/lib/pgsql/backup_in_progress is
+      The switch file /var/lib/pgsql/backup_in_progressfilename> is
       created first, enabling archiving of completed WAL files to occur.
       After the backup the switch file is removed. Archived WAL files are
       then added to the backup so that both base backup and all required
-      WAL files are part of the same tar file.
+      WAL files are part of the same tarapplication> file.
       Please remember to add error handling to your backup scripts.
      
 
@@ -1488,7 +1488,7 @@ tar -rf /var/lib/pgsql/backup.tar /var/lib/pgsql/archive/
 
 archive_command = 'gzip < %p > /var/lib/pgsql/archive/%f'
 
-      You will then need to use gunzip during recovery:
+      You will then need to use gunzipapplication> during recovery:
 
 restore_command = 'gunzip < /mnt/server/archivedir/%f > %p'
 
@@ -1501,7 +1501,7 @@ restore_command = 'gunzip < /mnt/server/archivedir/%f > %p'
      
       Many people choose to use scripts to define their
       archive_command, so that their
-      postgresql.conf entry looks very simple:
+      postgresql.conffilename> entry looks very simple:
 
 archive_command = 'local_backup_script.sh "%p" "%f"'
 
@@ -1509,7 +1509,7 @@ archive_command = 'local_backup_script.sh "%p" "%f"'
       more than a single command in the archiving process.
       This allows all complexity to be managed within the script, which
       can be written in a popular scripting language such as
-      bash> or perl>.
+      bashapplication> or perl>.
      
 
      
@@ -1543,7 +1543,7 @@ archive_command = 'local_backup_script.sh "%p" "%f"'
       
        When using an archive_command script, it's desirable
        to enable .
-       Any messages written to stderr from the script will then
+       Any messages written to stderrsystemitem> from the script will then
        appear in the database server log, allowing complex configurations to
        be diagnosed easily if they fail.
       
@@ -1563,7 +1563,7 @@ archive_command = 'local_backup_script.sh "%p" "%f"'
     
      If a 
      command is executed while a base backup is being taken, and then
-     the template database that the CREATE DATABASE copied
+     the template database that the CREATE DATABASEcommand> copied
      is modified while the base backup is still in progress, it is
      possible that recovery will cause those modifications to be
      propagated into the created database as well.  This is of course
@@ -1602,7 +1602,7 @@ archive_command = 'local_backup_script.sh "%p" "%f"'
     before you do so.)  Turning off page snapshots does not prevent
     use of the logs for PITR operations.  An area for future
     development is to compress archived WAL data by removing
-    unnecessary page copies even when full_page_writes is
+    unnecessary page copies even when full_page_writesvarname> is
     on.  In the meantime, administrators might wish to reduce the number
     of page snapshots included in WAL by increasing the checkpoint
     interval parameters as much as feasible.
index ea1b5c0c8e393c2e3abb3c2f7f927f58d12de362..0b092f6e492b290e2220b252f0f394d5b472a955 100644 (file)
   PostgreSQL can be extended to run user-supplied code in separate processes.
   Such processes are started, stopped and monitored by postgres,
   which permits them to have a lifetime closely linked to the server's status.
-  These processes have the option to attach to PostgreSQL's
+  These processes have the option to attach to PostgreSQLproductname>'s
   shared memory area and to connect to databases internally; they can also run
   multiple transactions serially, just like a regular client-connected server
-  process.  Also, by linking to libpq they can connect to the
+  process.  Also, by linking to libpqapplication> they can connect to the
   server and behave like a regular client application.
  
 
  
   
    There are considerable robustness and security risks in using background
-   worker processes because, being written in the C language,
+   worker processes because, being written in the Cliteral> language,
    they have unrestricted access to data.  Administrators wishing to enable
    modules that include background worker process should exercise extreme
    caution.  Only carefully audited modules should be permitted to run
 
  
   Background workers can be initialized at the time that
-  PostgreSQL is started by including the module name in
-  shared_preload_libraries.  A module wishing to run a background
+  PostgreSQLproductname> is started by including the module name in
+  shared_preload_librariesvarname>.  A module wishing to run a background
   worker can register it by calling
   RegisterBackgroundWorker(BackgroundWorker *worker)
-  from its _PG_init().  Background workers can also be started
+  from its _PG_init()function>.  Background workers can also be started
   after the system is up and running by calling the function
   RegisterDynamicBackgroundWorker(BackgroundWorker
   *worker, BackgroundWorkerHandle **handle).  Unlike
-  RegisterBackgroundWorker, which can only be called from within
+  RegisterBackgroundWorkerfunction>, which can only be called from within
   the postmaster, RegisterDynamicBackgroundWorker must be
   called from a regular backend.
  
@@ -65,7 +65,7 @@ typedef struct BackgroundWorker
   
 
   
-   bgw_name and bgw_type are
+   bgw_namestructfield> and bgw_type are
    strings to be used in log messages, process listings and similar contexts.
    bgw_type should be the same for all background
    workers of the same type, so that it is possible to group such workers in a
@@ -76,7 +76,7 @@ typedef struct BackgroundWorker
   
 
   
-   bgw_flags is a bitwise-or'd bit mask indicating the
+   bgw_flagsstructfield> is a bitwise-or'd bit mask indicating the
    capabilities that the module wants.  Possible values are:
    
 
@@ -114,14 +114,14 @@ typedef struct BackgroundWorker
 
   
    bgw_start_time is the server state during which
-   postgres should start the process; it can be one of
-   BgWorkerStart_PostmasterStart (start as soon as
-   postgres itself has finished its own initialization; processes
+   postgrescommand> should start the process; it can be one of
+   BgWorkerStart_PostmasterStartliteral> (start as soon as
+   postgrescommand> itself has finished its own initialization; processes
    requesting this are not eligible for database connections),
-   BgWorkerStart_ConsistentState (start as soon as a consistent state
+   BgWorkerStart_ConsistentStateliteral> (start as soon as a consistent state
    has been reached in a hot standby, allowing processes to connect to
    databases and run read-only queries), and
-   BgWorkerStart_RecoveryFinished (start as soon as the system has
+   BgWorkerStart_RecoveryFinishedliteral> (start as soon as the system has
    entered normal read-write state).  Note the last two values are equivalent
    in a server that's not a hot standby.  Note that this setting only indicates
    when the processes are to be started; they do not stop when a different state
@@ -152,9 +152,9 @@ typedef struct BackgroundWorker
   
 
   
-   bgw_main_arg is the Datum argument
+   bgw_main_arg is the Datumtype> argument
    to the background worker main function.  This main function should take a
-   single argument of type Datum> and return void>.
+   single argument of type Datumtype> and return void>.
    bgw_main_arg will be passed as the argument.
    In addition, the global variable MyBgworkerEntry
    points to a copy of the BackgroundWorker structure
@@ -165,39 +165,39 @@ typedef struct BackgroundWorker
   
    On Windows (and anywhere else where EXEC_BACKEND is
    defined) or in dynamic background workers it is not safe to pass a
-   Datum by reference, only by value. If an argument is required, it
+   Datumtype> by reference, only by value. If an argument is required, it
    is safest to pass an int32 or other small value and use that as an index
-   into an array allocated in shared memory. If a value like a cstring
+   into an array allocated in shared memory. If a value like a cstringtype>
    or text is passed then the pointer won't be valid from the
    new background worker process.
   
 
   
    bgw_extra can contain extra data to be passed
-   to the background worker.  Unlike bgw_main_arg, this data
+   to the background worker.  Unlike bgw_main_argstructfield>, this data
    is not passed as an argument to the worker's main function, but it can be
    accessed via MyBgworkerEntry, as discussed above.
   
 
   
    bgw_notify_pid is the PID of a PostgreSQL
-   backend process to which the postmaster should send SIGUSR1
+   backend process to which the postmaster should send SIGUSR1literal>
    when the process is started or exits.  It should be 0 for workers registered
    at postmaster startup time, or when the backend registering the worker does
    not wish to wait for the worker to start up.  Otherwise, it should be
-   initialized to MyProcPid.
+   initialized to MyProcPidliteral>.
   
 
   Once running, the process can connect to a database by calling
    BackgroundWorkerInitializeConnection(char *dbnamechar *username) or
    BackgroundWorkerInitializeConnectionByOid(Oid dboidOid useroid).
    This allows the process to run transactions and queries using the
-   SPI interface.  If dbname is NULL or
-   dboid> is InvalidOid>, the session is not connected
+   SPI interface.  If dbnamevarname> is NULL or
+   dboidvarname> is InvalidOid>, the session is not connected
    to any particular database, but shared catalogs can be accessed.
-   If username> is NULL or useroid> is
-   InvalidOid, the process will run as the superuser created
-   during initdb.
+   If usernamevarname> is NULL or useroid> is
+   InvalidOidliteral>, the process will run as the superuser created
+   during initdbcommand>.
    A background worker can only call one of these two functions, and only
    once.  It is not possible to switch databases.
   
@@ -207,24 +207,24 @@ typedef struct BackgroundWorker
    background worker's main function, and must be unblocked by it; this is to
    allow the process to customize its signal handlers, if necessary.
    Signals can be unblocked in the new process by calling
-   BackgroundWorkerUnblockSignals and blocked by calling
-   BackgroundWorkerBlockSignals.
+   BackgroundWorkerUnblockSignalsfunction> and blocked by calling
+   BackgroundWorkerBlockSignalsfunction>.
   
 
   
    If bgw_restart_time for a background worker is
-   configured as BGW_NEVER_RESTART, or if it exits with an exit
-   code of 0 or is terminated by TerminateBackgroundWorker,
+   configured as BGW_NEVER_RESTARTliteral>, or if it exits with an exit
+   code of 0 or is terminated by TerminateBackgroundWorkerfunction>,
    it will be automatically unregistered by the postmaster on exit.
    Otherwise, it will be restarted after the time period configured via
-   bgw_restart_time, or immediately if the postmaster
+   bgw_restart_timestructfield>, or immediately if the postmaster
    reinitializes the cluster due to a backend failure.  Backends which need
    to suspend execution only temporarily should use an interruptible sleep
    rather than exiting; this can be achieved by calling
    WaitLatch(). Make sure the
-   WL_POSTMASTER_DEATH flag is set when calling that function, and
+   WL_POSTMASTER_DEATHliteral> flag is set when calling that function, and
    verify the return code for a prompt exit in the emergency case that
-   postgres itself has terminated.
+   postgrescommand> itself has terminated.
   
 
   
@@ -238,29 +238,29 @@ typedef struct BackgroundWorker
    opaque handle that can subsequently be passed to
    GetBackgroundWorkerPid(BackgroundWorkerHandle *pid_t *) or
    TerminateBackgroundWorker(BackgroundWorkerHandle *).
-   GetBackgroundWorkerPid can be used to poll the status of the
-   worker: a return value of BGWH_NOT_YET_STARTED indicates that
+   GetBackgroundWorkerPidfunction> can be used to poll the status of the
+   worker: a return value of BGWH_NOT_YET_STARTEDliteral> indicates that
    the worker has not yet been started by the postmaster;
    BGWH_STOPPED indicates that it has been started but is
    no longer running; and BGWH_STARTED indicates that it is
    currently running.  In this last case, the PID will also be returned via the
    second argument.
-   TerminateBackgroundWorker causes the postmaster to send
-   SIGTERM to the worker if it is running, and to unregister it
+   TerminateBackgroundWorkerfunction> causes the postmaster to send
+   SIGTERMliteral> to the worker if it is running, and to unregister it
    as soon as it is not.
   
 
   
    In some cases, a process which registers a background worker may wish to
    wait for the worker to start up.  This can be accomplished by initializing
-   bgw_notify_pid to MyProcPid and
+   bgw_notify_pid to MyProcPidliteral> and
    then passing the BackgroundWorkerHandle * obtained at
    registration time to
    WaitForBackgroundWorkerStartup(BackgroundWorkerHandle
    *handle, pid_t *) function.
    This function will block until the postmaster has attempted to start the
    background worker, or until the postmaster dies.  If the background runner
-   is running, the return value will BGWH_STARTED, and
+   is running, the return value will BGWH_STARTEDliteral>, and
    the PID will be written to the provided address.  Otherwise, the return
    value will be BGWH_STOPPED or
    BGWH_POSTMASTER_DIED.
@@ -279,7 +279,7 @@ typedef struct BackgroundWorker
   
 
   
-   The src/test/modules/worker_spi module
+   The src/test/modules/worker_spifilename> module
    contains a working example,
    which demonstrates some useful techniques.
   
index 5462bc38e445ab28b832f17e72aabdade9e1cce8..d7547e6e92193f0d3219f2fe5b3c225e80a20dd5 100644 (file)
     
      
       Discusses SQL history and syntax, and describes the addition of
-      INTERSECT> and EXCEPT> constructs into
+      INTERSECTliteral> and EXCEPT> constructs into
       PostgreSQL.  Prepared as a Master's
       Thesis with the support of O. Univ. Prof. Dr. Georg Gottlob and
       Univ. Ass. Mag. Katrin Seyr at Vienna University of Technology.
index af6d8d1d2a9c0cb41aa4d1303ba379a0904ded7a..33378b46eaa1ca62d442227bc21477bd54b67ca6 100644 (file)
@@ -21,7 +21,7 @@
   input file used by initdb is created as
   part of building and installing PostgreSQL
   by a program named genbki.pl, which reads some
-  specially formatted C header files in the src/include/catalog/
+  specially formatted C header files in the src/include/catalog/filename>
   directory of the source tree.  The created BKI file
   is called postgres.bki and is
   normally installed in the
   
    
     
-     create
+     createliteral>
      tablename
      tableoid
-     bootstrap
-     shared_relation
-     without_oids
-     rowtype_oidoid>
+     bootstrapliteral>
+     shared_relationliteral>
+     without_oidsliteral>
+     rowtype_oidliteral> oid>
      (name1 =
      type1
      FORCE NOT NULL | FORCE NULL  ,
@@ -93,7 +93,7 @@
 
      
       The following column types are supported directly by
-      bootstrap.c: bool,
+      bootstrap.cfilename>: bool,
       byteachar (1 byte),
       nameint2,
       int4regprocregclass,
       _oid (array), _char (array),
       _aclitem (array).  Although it is possible to create
       tables containing columns of other types, this cannot be done until
-      after pg_type has been created and filled with
+      after pg_typestructname> has been created and filled with
       appropriate entries.  (That effectively means that only these
       column types can be used in bootstrapped tables, but non-bootstrap
       catalogs can contain any built-in type.)
      
 
      
-      When bootstrap is specified,
+      When bootstrapliteral> is specified,
       the table will only be created on disk; nothing is entered into
       pg_class,
       pg_attribute, etc, for it.  Thus the
       table will not be accessible by ordinary SQL operations until
-      such entries are made the hard way (with insert
+      such entries are made the hard way (with insertliteral>
       commands).  This option is used for creating
       pg_class etc themselves.
      
 
      
-      The table is created as shared if shared_relation is
+      The table is created as shared if shared_relationliteral> is
       specified.
-      It will have OIDs unless without_oids is specified.
-      The table's row type OID (pg_type OID) can optionally
-      be specified via the rowtype_oid clause; if not specified,
-      an OID is automatically generated for it.  (The rowtype_oid
-      clause is useless if bootstrap is specified, but it can be
+      It will have OIDs unless without_oidsliteral> is specified.
+      The table's row type OID (pg_typestructname> OID) can optionally
+      be specified via the rowtype_oidliteral> clause; if not specified,
+      an OID is automatically generated for it.  (The rowtype_oidliteral>
+      clause is useless if bootstrapliteral> is specified, but it can be
       provided anyway for documentation.)
      
     
 
    
     
-     open tablename
+     openliteral> tablename
     
 
     
 
    
     
-     close tablename
+     closeliteral> tablename
     
 
     
 
    
     
-     insertOID = oid_value value1 value2 ... )>
+     insertliteral> OID = oid_value ( value1 value2 ... )>
     
 
     
 
    
     
-     declareunique>
-     index indexname
+     declareliteral> unique>
+     indexliteral> indexname
      indexoid
-     on tablename
-     using amname
-     opclass1
+     onliteral> tablename
+     usingliteral> amname
+     (literal> opclass1
      name1
-     , ... )
+     , ... )literal>
     
 
     
 
    
     
-     declare toast
+     declare toastliteral>
      toasttableoid
      toastindexoid
-     on tablename
+     onliteral> tablename
     
 
     
       toasttableoid
       and its index is assigned OID
       toastindexoid.
-      As with declare index, filling of the index
+      As with declare indexliteral>, filling of the index
       is postponed.
      
     
    
 
    
-    build indices
+    build indicesliteral>
 
     
      
   Structure of the Bootstrap <acronym>BKI</acronym> File
 
   
-   The open command cannot be used until the tables it uses
+   The openliteral> command cannot be used until the tables it uses
    exist and have entries for the table that is to be opened.
-   (These minimum tables are pg_class,
-   pg_attribute>, pg_proc>, and
-   pg_type.)   To allow those tables themselves to be filled,
-   create> with the bootstrap> option implicitly opens
+   (These minimum tables are pg_classstructname>,
+   pg_attributestructname>, pg_proc>, and
+   pg_typestructname>.)   To allow those tables themselves to be filled,
+   createliteral> with the bootstrap> option implicitly opens
    the created table for data insertion.
   
 
   
-   Also, the declare index> and declare toast>
+   Also, the declare indexliteral> and declare toast>
    commands cannot be used until the system catalogs they need have been
    created and filled in.
   
    
     
      
-      create bootstrap one of the critical tables
+      create bootstrapliteral> one of the critical tables
      
     
     
      
-      insert data describing at least the critical tables
+      insertliteral> data describing at least the critical tables
      
     
     
      
-      close
+      closeliteral>
      
     
     
     
     
      
-      create> (without bootstrap>) a noncritical table
+      createliteral> (without bootstrap>) a noncritical table
      
     
     
      
-      open
+      openliteral>
      
     
     
      
-      insert desired data
+      insertliteral> desired data
      
     
     
      
-      close
+      closeliteral>
      
     
     
     
     
      
-      build indices
+      build indicesliteral>
      
     
    
index 396348c5237e3cf5b17cc1dc54fff825a570c7e6..e13ebf80fdf13134ec0c4d8b754f5365e56122db 100644 (file)
@@ -8,7 +8,7 @@
  
 
  
-  bloom provides an index access method based on
+  bloomliteral> provides an index access method based on
   Bloom filters.
  
 
   Parameters
 
   
-   A bloom index accepts the following parameters in its
-   WITH clause:
+   A bloomliteral> index accepts the following parameters in its
+   WITHliteral> clause:
   
 
    
    
-    length
+    lengthliteral>
     
      
       Length of each signature (index entry) in bits. The default
-      is 80> bits and maximum is 4096>.
+      is 80literal> bits and maximum is 4096>.
      
     
    
    
    
    
-    col1 — col32
+    col1 — col32literal>
     
      
       Number of bits generated for each index column. Each parameter's name
       refers to the number of the index column that it controls.  The default
-      is 2> bits and maximum is 4095>.  Parameters for
+      is 2literal> bits and maximum is 4095>.  Parameters for
       index columns not actually used are ignored.
      
     
@@ -87,8 +87,8 @@ CREATE INDEX bloomidx ON tbloom USING bloom (i1,i2,i3)
   
    The index is created with a signature length of 80 bits, with attributes
    i1 and i2 mapped to 2 bits, and attribute i3 mapped to 4 bits.  We could
-   have omitted the length>, col1>,
-   and col2 specifications since those have the default values.
+   have omitted the lengthliteral>, col1>,
+   and col2literal> specifications since those have the default values.
   
 
   
@@ -175,7 +175,7 @@ CREATE INDEX
    Note the relatively large number of false positives: 2439 rows were
    selected to be visited in the heap, but none actually matched the
    query.  We could reduce that by specifying a larger signature length.
-   In this example, creating the index with length=200
+   In this example, creating the index with length=200literal>
    reduced the number of false positives to 55; but it doubled the index size
    (to 306 MB) and ended up being slower for this query (125 ms overall).
   
@@ -213,7 +213,7 @@ CREATE INDEX
   
    An operator class for bloom indexes requires only a hash function for the
    indexed data type and an equality operator for searching. This example
-   shows the operator class definition for the text data type:
+   shows the operator class definition for the texttype> data type:
   
 
 
@@ -230,7 +230,7 @@ DEFAULT FOR TYPE text USING bloom AS
    
     
      
-      Only operator classes for int4> and text> are
+      Only operator classes for int4type> and text> are
       included with the module.
      
     
index 8dcc29925bc9ac192fe14ab68a28afbb6eda5f0a..91c01700ed563a7941c81d6b95072bc20cac3089 100644 (file)
@@ -16,7 +16,7 @@
   BRIN is designed for handling very large tables
   in which certain columns have some natural correlation with their
   physical location within the table.
-  A block range is a group of pages that are physically
+  A block rangefirstterm> is a group of pages that are physically
   adjacent in the table; for each block range, some summary info is stored
   by the index.
   For example, a table storing a store's sale orders might have
@@ -29,7 +29,7 @@
  
   BRIN indexes can satisfy queries via regular bitmap
   index scans, and will return all tuples in all pages within each range if
-  the summary info stored by the index is consistent with the
+  the summary info stored by the index is consistentfirstterm> with the
   query conditions.
   The query executor is in charge of rechecking these tuples and discarding
   those that do not match the query conditions — in other words, these
@@ -51,9 +51,9 @@
 
  
   The size of the block range is determined at index creation time by
-  the pages_per_range storage parameter.  The number of index
+  the pages_per_rangeliteral> storage parameter.  The number of index
   entries will be equal to the size of the relation in pages divided by
-  the selected value for pages_per_range.  Therefore, the smaller
+  the selected value for pages_per_rangeliteral>.  Therefore, the smaller
   the number, the larger the index becomes (because of the need to
   store more index entries), but at the same time the summary data stored can
   be more precise and more data blocks can be skipped during an index scan.
@@ -99,9 +99,9 @@
  
 
  
-  The minmax
+  The minmaxfirstterm>
   operator classes store the minimum and the maximum values appearing
-  in the indexed column within the range.  The inclusion
+  in the indexed column within the range.  The inclusionfirstterm>
   operator classes store a value which includes the values in the indexed
   column within the range.
  
      
     
     
-     box_inclusion_ops
+     box_inclusion_opsliteral>
      box
      
-      <<
-      &<
-      &&
-      &>
-      >>
-      ~=
-      @>
-      <@
-      &<|
-      <<|
+      <<literal>
+      &<literal>
+      &&literal>
+      &>literal>
+      >>literal>
+      ~=literal>
+      @>literal>
+      <@literal>
+      &<|literal>
+      <<|literal>
       |>>
-      |&>
+      |&>literal>
      
     
     
      network_inclusion_ops
      inet
      
-      &&
-      >>=
+      &&literal>
+      >>=literal>
       <<=
       =
-      >>
+      >>literal>
       <<
      
     
      
     
     
-     range_inclusion_ops
+     range_inclusion_opsliteral>
      any range type
      
-      <<
-      &<
-      &&
-      &>
-      >>
-      @>
-      <@
-      -|-
-      =
+      <<literal>
+      &<literal>
+      &&literal>
+      &>literal>
+      >>literal>
+      @>literal>
+      <@literal>
+      -|-literal>
+      =literal>
       <
       <=
       =
 
   
    
-    BrinOpcInfo *opcInfo(Oid type_oid)
+    BrinOpcInfo *opcInfo(Oid type_oid)function>
     
      
       Returns internal information about the indexed columns' summary data.
-      The return value must point to a palloc'd BrinOpcInfo,
+      The return value must point to a palloc'd BrinOpcInfostructname>,
       which has this definition:
 
 typedef struct BrinOpcInfo
@@ -524,7 +524,7 @@ typedef struct BrinOpcInfo
     TypeCacheEntry *oi_typcache[FLEXIBLE_ARRAY_MEMBER];
 } BrinOpcInfo;
 
-      BrinOpcInfo>.oi_opaque> can be used by the
+      BrinOpcInfostructname>.oi_opaque> can be used by the
       operator class routines to pass information between support procedures
       during an index scan.
      
@@ -797,8 +797,8 @@ typedef struct BrinOpcInfo
     It should accept two arguments with the same data type as the operator class,
     and return the union of them.  The inclusion operator class can store union
     values with different data types if it is defined with the
-    STORAGE parameter.  The return value of the union
-    function should match the STORAGE data type.
+    STORAGEliteral> parameter.  The return value of the union
+    function should match the STORAGEliteral> data type.
  
 
  
@@ -823,11 +823,11 @@ typedef struct BrinOpcInfo
     on another operator strategy as shown in
     , or the same
     operator strategy as themselves.  They require the dependency
-    operator to be defined with the STORAGE data type as the
+    operator to be defined with the STORAGEliteral> data type as the
     left-hand-side argument and the other supported data type to be the
     right-hand-side argument of the supported operator.  See
-    float4_minmax_ops as an example of minmax, and
-    box_inclusion_ops as an example of inclusion.
+    float4_minmax_opsliteral> as an example of minmax, and
+    box_inclusion_opsliteral> as an example of inclusion.
  
 
 
index 375e7ec4be620771c9c59cef30bbd11f90955ff6..e491fa76e7d0e157780e670d1dbee72c04e2b89b 100644 (file)
@@ -8,16 +8,16 @@
  
 
  
-  btree_gin provides sample GIN operator classes that
+  btree_ginfilename> provides sample GIN operator classes that
   implement B-tree equivalent behavior for the data types
-  int2>, int4, int8, float4>,
-  float8>, timestamp with time zone>,
-  timestamp without time zone>, time with time zone>,
-  time without time zone>, date, interval>,
-  oid>, money, "char">,
-  varchar>, text, bytea, bit>,
-  varbit>, macaddr, macaddr8, inet>,
-  cidr>, and all enum> types.
+  int2type>, int4int8float4>,
+  float8type>, timestamp with time zone>,
+  timestamp without time zonetype>, time with time zone>,
+  time without time zonetype>, dateinterval>,
+  oidtype>, money"char">,
+  varchartype>, textbyteabit>,
+  varbittype>, macaddrmacaddr8inet>,
+  cidrtype>, and all enum> types.
  
 
  
index f3c639c2f3b562af02e5183d2178816658f97752..dcb939f1fbfbfa5cd58bcfa6bcc32086824b7d5d 100644 (file)
@@ -8,16 +8,16 @@
  
 
  
-  btree_gist provides GiST index operator classes that
+  btree_gistfilename> provides GiST index operator classes that
   implement B-tree equivalent behavior for the data types
-  int2>, int4, int8, float4>,
-  float8>, numeric, timestamp with time zone>,
-  timestamp without time zone>, time with time zone>,
-  time without time zone>, date, interval>,
-  oid>, money, char>,
-  varchar>, text, bytea, bit>,
-  varbit>, macaddr, macaddr8, inet>,
-  cidr>, uuid, and all enum> types.
+  int2type>, int4int8float4>,
+  float8type>, numerictimestamp with time zone>,
+  timestamp without time zonetype>, time with time zone>,
+  time without time zonetype>, dateinterval>,
+  oidtype>, moneychar>,
+  varchartype>, textbyteabit>,
+  varbittype>, macaddrmacaddr8inet>,
+  cidrtype>, uuid, and all enum> types.
  
 
  
@@ -33,7 +33,7 @@
  
 
  
-  In addition to the typical B-tree search operators, btree_gist
+  In addition to the typical B-tree search operators, btree_gistfilename>
   also provides index support for <> (not
   equals). This may be useful in combination with an
   exclusion constraint,
 
  
   Also, for data types for which there is a natural distance metric,
-  btree_gist> defines a distance operator <->>,
+  btree_gistfilename> defines a distance operator <->>,
   and provides GiST index support for nearest-neighbor searches using
   this operator.  Distance operators are provided for
-  int2>, int4, int8, float4>,
-  float8>, timestamp with time zone>,
-  timestamp without time zone,
-  time without time zone>, date, interval>,
-  oid>, and money>.
+  int2type>, int4int8float4>,
+  float8type>, timestamp with time zone>,
+  timestamp without time zonetype>,
+  time without time zonetype>, dateinterval>,
+  oidtype>, and money>.
  
 
  
index cfec2465d26e47591ba6a0721b2b492297c85101..ef60a58631af24bee7d1569fefb3c6fbbba9c324 100644 (file)
   
 
   
-   <structname>pg_aggregate</> Columns
+   <structname>pg_aggregate</<span class="marked">structname</span>> Columns
 
    
     
       char
       
       Aggregate kind:
-       n for normal aggregates,
-       o for ordered-set aggregates, or
-       h for hypothetical-set aggregates
+       n for normalquote> aggregates,
+       o for ordered-setquote> aggregates, or
+       h for hypothetical-setquote> aggregates
       
      
      
       
       Number of direct (non-aggregated) arguments of an ordered-set or
        hypothetical-set aggregate, counting a variadic array as one argument.
-       If equal to pronargs, the aggregate must be variadic
+       If equal to pronargsstructfield>, the aggregate must be variadic
        and the variadic array describes the aggregated arguments as well as
        the final direct arguments.
        Always zero for normal aggregates.
   
 
   
-   <structname>pg_am</> Columns
+   <structname>pg_am</<span class="marked">structname</span>> Columns
 
    
     
 
   
    
-    Before PostgreSQL 9.6, pg_am
+    Before PostgreSQLproductname> 9.6, pg_am
     contained many additional columns representing properties of index access
     methods.  That data is now only directly visible at the C code level.
     However, pg_index_column_has_property() and related
    The catalog pg_amop stores information about
    operators associated with access method operator families.  There is one
    row for each operator that is a member of an operator family.  A family
-   member can be either a search operator or an
-   ordering operator.  An operator
+   member can be either a searchfirstterm> operator or an
+   orderingfirstterm> operator.  An operator
    can appear in more than one family, but cannot appear in more than one
    search position nor more than one ordering position within a family.
    (It is allowed, though unlikely, for an operator to be used for both
   
 
   
-   <structname>pg_amop</> Columns
+   <structname>pg_amop</<span class="marked">structname</span>> Columns
 
    
     
       amoppurpose
       char
       
-      Operator purpose, either s for search or
-       o for ordering
+      Operator purpose, either sliteral> for search or
+       oliteral> for ordering
      
 
      
   
 
   
-   A search operator entry indicates that an index of this operator
+   A searchquote> operator entry indicates that an index of this operator
    family can be searched to find all rows satisfying
-   WHERE
-   indexed_column
-   operator
-   constant.
+   WHEREliteral>
+   indexed_columnreplaceable>
+   operatorreplaceable>
+   constantreplaceable>.
    Obviously, such an operator must return boolean, and its left-hand input
    type must match the index's column data type.
   
 
   
-   An ordering operator entry indicates that an index of this
+   An orderingquote> operator entry indicates that an index of this
    operator family can be scanned to return rows in the order represented by
-   ORDER BY
-   indexed_column
-   operator
-   constant.
+   ORDER BYliteral>
+   indexed_columnreplaceable>
+   operatorreplaceable>
+   constantreplaceable>.
    Such an operator could return any sortable data type, though again
    its left-hand input type must match the index's column data type.
-   The exact semantics of the ORDER BY are specified by the
+   The exact semantics of the ORDER BYliteral> are specified by the
    amopsortfamily column, which must reference
    a B-tree operator family for the operator's result type.
   
    
     At present, it's assumed that the sort order for an ordering operator
     is the default for the referenced operator family, i.e., ASC NULLS
-    LAST.  This might someday be relaxed by adding additional columns
+    LASTliteral>.  This might someday be relaxed by adding additional columns
     to specify sort options explicitly.
    
   
 
   
-   An entry's amopmethod must match the
-   opfmethod of its containing operator family (including
-   amopmethod here is an intentional denormalization of the
+   An entry's amopmethodstructfield> must match the
+   opfmethodstructname> of its containing operator family (including
+   amopmethodstructfield> here is an intentional denormalization of the
    catalog structure for performance reasons).  Also,
-   amoplefttype> and amoprighttype> must match
-   the oprleft> and oprright> fields of the
-   referenced pg_operator entry.
+   amoplefttypestructfield> and amoprighttype> must match
+   the oprleftstructfield> and oprright> fields of the
+   referenced pg_operatorstructname> entry.
   
 
  
 
   
    The usual interpretation of the
-   amproclefttype> and amprocrighttype> fields
+   amproclefttypestructfield> and amprocrighttype> fields
    is that they identify the left and right input types of the operator(s)
    that a particular support procedure supports.  For some access methods
    these match the input data type(s) of the support procedure itself, for
-   others not.  There is a notion of default support procedures for
-   an index, which are those with amproclefttype and
-   amprocrighttype both equal to the index operator class's
-   opcintype.
+   others not.  There is a notion of defaultquote> support procedures for
+   an index, which are those with amproclefttypestructfield> and
+   amprocrighttypestructfield> both equal to the index operator class's
+   opcintypestructfield>.
   
 
  
   
 
   
-   <structname>pg_attrdef</> Columns
+   <structname>pg_attrdef</<span class="marked">structname</span>> Columns
 
    
     
     The adsrc field is historical, and is best
     not used, because it does not track outside changes that might affect
     the representation of the default value.  Reverse-compiling the
-    adbin field (with pg_get_expr for
+    adbin field (with pg_get_exprfunction> for
     example) is a better way to display the default value.
    
 
   
 
   
-   <structname>pg_attribute</> Columns
+   <structname>pg_attribute</<span class="marked">structname</span>> Columns
 
    
     
       
        Number of dimensions, if the column is an array type; otherwise 0.
        (Presently, the number of dimensions of an array is not enforced,
-       so any nonzero value effectively means it's an array.)
+       so any nonzero value effectively means it's an arrayquote>.)
       
      
 
        supplied at table creation time (for example, the maximum
        length of a varchar column).  It is passed to
        type-specific input functions and length coercion functions.
-       The value will generally be -1 for types that do not need atttypmod.
+       The value will generally be -1 for types that do not need atttypmodstructfield>.
       
      
 
       bool
       
       
-       A copy of pg_type.typbyval of this column's type
+       A copy of pg_type.typbyvalliteral> of this column's type
       
      
 
       char
       
       
-       Normally a copy of pg_type.typstorage of this
+       Normally a copy of pg_type.typstorageliteral> of this
        column's type.  For TOAST-able data types, this can be altered
        after column creation to control storage policy.
       
       char
       
       
-       A copy of pg_type.typalign of this column's type
+       A copy of pg_type.typalignliteral> of this column's type
       
      
 
       text[]
       
       
-       Attribute-level options, as keyword=value strings
+       Attribute-level options, as keyword=valuequote> strings
       
      
 
       text[]
       
       
-       Attribute-level foreign data wrapper options, as keyword=value strings
+       Attribute-level foreign data wrapper options, as keyword=valuequote> strings
       
      
 
    In a dropped column's pg_attribute entry,
    atttypid is reset to zero, but
    attlen and the other fields copied from
-   pg_type are still valid.  This arrangement is needed
+   pg_typestructname> are still valid.  This arrangement is needed
    to cope with the situation where the dropped column's data type was
-   later dropped, and so there is no pg_type row anymore.
+   later dropped, and so there is no pg_typestructname> row anymore.
    attlen and the other fields can be used
    to interpret the contents of a row of the table.
   
   
    The catalog pg_authid contains information about
    database authorization identifiers (roles).  A role subsumes the concepts
-   of users> and groups>.  A user is essentially just a
-   role with the rolcanlogin flag set.  Any role (with or
-   without rolcanlogin) can have other roles as members; see
+   of usersquote> and groups>.  A user is essentially just a
+   role with the rolcanloginstructfield> flag set.  Any role (with or
+   without rolcanloginstructfield>) can have other roles as members; see
    pg_auth_members.
   
 
   
 
   
-   <structname>pg_authid</> Columns
+   <structname>pg_authid</<span class="marked">structname</span>> Columns
 
    
     
 
   
    For an MD5 encrypted password, rolpassword
-   column will begin with the string md5 followed by a
+   column will begin with the string md5literal> followed by a
    32-character hexadecimal MD5 hash. The MD5 hash will be of the user's
    password concatenated to their user name. For example, if user
-   joe> has password xyzzy, PostgreSQL>
-   will store the md5 hash of xyzzyjoe.
+   joeliteral> has password xyzzyPostgreSQL>
+   will store the md5 hash of xyzzyjoeliteral>.
   
 
   
    If the password is encrypted with SCRAM-SHA-256, it has the format:
 
-SCRAM-SHA-256$<iteration count>>:<salt>$<StoredKey>:<ServerKey>>
+SCRAM-SHA-256$<iteration count>replaceable>:<salt>$<StoredKey>:<ServerKey>>
 
-   where salt>, StoredKey> and
-   ServerKey are in Base64 encoded format. This format is
+   where saltreplaceable>, StoredKey> and
+   ServerKeyreplaceable> are in Base64 encoded format. This format is
    the same as that specified by RFC 5803.
   
 
@@ -1435,7 +1435,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
   
 
   
-   <structname>pg_auth_members</> Columns
+   <structname>pg_auth_members</<span class="marked">structname</span>> Columns
 
    
     
@@ -1459,7 +1459,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
       member
       oid
       pg_authid.oid
-      ID of a role that is a member of roleid
+      ID of a role that is a member of roleidstructfield>
      
 
      
@@ -1473,8 +1473,8 @@ SCRAM-SHA-256$<iteration count>:<salt><
       admin_option
       bool
       
-      True if member can grant membership in
-       roleid to others
+      True if memberstructfield> can grant membership in
+       roleidstructfield> to others
      
     
    
@@ -1501,14 +1501,14 @@ SCRAM-SHA-256$<iteration count>:<salt><
    cannot be deduced from some generic rule.  For example, casting between a
    domain and its base type is not explicitly represented in
    pg_cast.  Another important exception is that
-   automatic I/O conversion casts, those performed using a data
-   type's own I/O functions to convert to or from text or other
+   automatic I/O conversion castsquote>, those performed using a data
+   type's own I/O functions to convert to or from texttype> or other
    string types, are not explicitly represented in
    pg_cast.
   
 
   
-   <structname>pg_cast</> Columns
+   <structname>pg_cast</<span class="marked">structname</span>> Columns
 
    
     
@@ -1558,11 +1558,11 @@ SCRAM-SHA-256$<iteration count>:<salt><
       
       
        Indicates what contexts the cast can be invoked in.
-       e means only as an explicit cast (using
-       CAST> or ::> syntax).
-       a means implicitly in assignment
+       eliteral> means only as an explicit cast (using
+       CASTliteral> or ::> syntax).
+       aliteral> means implicitly in assignment
        to a target column, as well as explicitly.
-       i means implicitly in expressions, as well as the
+       iliteral> means implicitly in expressions, as well as the
        other cases.
       
      
@@ -1572,9 +1572,9 @@ SCRAM-SHA-256$<iteration count>:<salt><
       
       
        Indicates how the cast is performed.
-       f> means that the function specified in the castfunc> field is used.
-       i means that the input/output functions are used.
-       b means that the types are binary-coercible, thus no conversion is required.
+       fliteral> means that the function specified in the castfunc> field is used.
+       iliteral> means that the input/output functions are used.
+       bliteral> means that the types are binary-coercible, thus no conversion is required.
       
      
     
@@ -1586,18 +1586,18 @@ SCRAM-SHA-256$<iteration count>:<salt><
    always take the cast source type as their first argument type, and
    return the cast destination type as their result type.  A cast
    function can have up to three arguments.  The second argument,
-   if present, must be type integer; it receives the type
+   if present, must be type integertype>; it receives the type
    modifier associated with the destination type, or -1
    if there is none.  The third argument,
-   if present, must be type boolean>; it receives true>
-   if the cast is an explicit cast, false otherwise.
+   if present, must be type booleantype>; it receives true>
+   if the cast is an explicit cast, falseliteral> otherwise.
   
 
   
    It is legitimate to create a pg_cast entry
    in which the source and target types are the same, if the associated
    function takes more than one argument.  Such entries represent
-   length coercion functions that coerce values of the type
+   length coercion functionsquote> that coerce values of the type
    to be legal for a particular type modifier value.
   
 
@@ -1624,14 +1624,14 @@ SCRAM-SHA-256$<iteration count>:<salt><
    table.  This includes indexes (but see also
    pg_index), sequences (but see also
    pg_sequence), views, materialized
-   views, composite types, and TOAST tables; see relkind.
+   views, composite types, and TOAST tables; see relkindstructfield>.
    Below, when we mean all of these
    kinds of objects we speak of relations.  Not all
    columns are meaningful for all relation types.
   
 
   
-   <structname>pg_class</> Columns
+   <structname>pg_class</<span class="marked">structname</span>> Columns
 
    
     
@@ -1673,7 +1673,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
       pg_type.oid
       
        The OID of the data type that corresponds to this table's row type,
-       if any (zero for indexes, which have no pg_type entry)
+       if any (zero for indexes, which have no pg_typestructname> entry)
       
      
 
@@ -1706,7 +1706,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
       oid
       
       Name of the on-disk file of this relation; zero means this
-       is a mapped relation whose disk file name is determined
+       is a mappedquote> relation whose disk file name is determined
        by low-level state
      
 
@@ -1795,8 +1795,8 @@ SCRAM-SHA-256$<iteration count>:<salt><
       char
       
       
-       p> = permanent table, u> = unlogged table,
-       t = temporary table
+       pliteral> = permanent table, u> = unlogged table,
+       tliteral> = temporary table
       
      
 
@@ -1805,15 +1805,15 @@ SCRAM-SHA-256$<iteration count>:<salt><
       char
       
       
-       r = ordinary table,
-       i = index,
-       S = sequence,
-       t = TOAST table,
-       v = view,
-       m = materialized view,
-       c = composite type,
-       f = foreign table,
-       p = partitioned table
+       rliteral> = ordinary table,
+       iliteral> = index,
+       Sliteral> = sequence,
+       tliteral> = TOAST table,
+       vliteral> = view,
+       mliteral> = materialized view,
+       cliteral> = composite type,
+       fliteral> = foreign table,
+       pliteral> = partitioned table
       
      
 
@@ -1834,7 +1834,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
       int2
       
       
-       Number of CHECK constraints on the table; see
+       Number of CHECKliteral> constraints on the table; see
        pg_constraint catalog
       
      
@@ -1917,11 +1917,11 @@ SCRAM-SHA-256$<iteration count>:<salt><
       char
       
       
-       Columns used to form replica identity for rows:
-       d = default (primary key, if any),
-       n = nothing,
-       f = all columns
-       i = index with indisreplident set, or default
+       Columns used to form replica identityquote> for rows:
+       dliteral> = default (primary key, if any),
+       nliteral> = nothing,
+       fliteral> = all columns
+       iliteral> = index with indisreplident set, or default
       
      
 
@@ -1938,9 +1938,9 @@ SCRAM-SHA-256$<iteration count>:<salt><
       
       
        All transaction IDs before this one have been replaced with a permanent
-       (frozen) transaction ID in this table.  This is used to track
+       (frozenquote>) transaction ID in this table.  This is used to track
        whether the table needs to be vacuumed in order to prevent transaction
-       ID wraparound or to allow pg_xact to be shrunk.  Zero
+       ID wraparound or to allow pg_xactliteral> to be shrunk.  Zero
        (InvalidTransactionId) if the relation is not a table.
       
      
@@ -1953,7 +1953,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
        All multixact IDs before this one have been replaced by a
        transaction ID in this table.  This is used to track
        whether the table needs to be vacuumed in order to prevent multixact ID
-       wraparound or to allow pg_multixact to be shrunk.  Zero
+       wraparound or to allow pg_multixactliteral> to be shrunk.  Zero
        (InvalidMultiXactId) if the relation is not a table.
       
      
@@ -1975,7 +1975,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
       text[]
       
       
-       Access-method-specific options, as keyword=value strings
+       Access-method-specific options, as keyword=valuequote> strings
       
      
 
@@ -1993,13 +1993,13 @@ SCRAM-SHA-256$<iteration count>:<salt><
   
 
   
-   Several of the Boolean flags in pg_class are maintained
+   Several of the Boolean flags in pg_classstructname> are maintained
    lazily: they are guaranteed to be true if that's the correct state, but
    may not be reset to false immediately when the condition is no longer
-   true.  For example, relhasindex is set by
+   true.  For example, relhasindexstructfield> is set by
    CREATE INDEX, but it is never cleared by
    DROP INDEX.  Instead, VACUUM clears
-   relhasindex if it finds the table has no indexes.  This
+   relhasindexstructfield> if it finds the table has no indexes.  This
    arrangement avoids race conditions and improves concurrency.
   
  
@@ -2019,7 +2019,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
   
 
   
-   <structname>pg_collation</> Columns
+   <structname>pg_collation</<span class="marked">structname</span>> Columns
 
    
     
@@ -2082,14 +2082,14 @@ SCRAM-SHA-256$<iteration count>:<salt><
       collcollate
       name
       
-      LC_COLLATE for this collation object
+      LC_COLLATEsymbol> for this collation object
      
 
      
       collctype
       name
       
-      LC_CTYPE for this collation object
+      LC_CTYPEsymbol> for this collation object
      
 
      
@@ -2107,27 +2107,27 @@ SCRAM-SHA-256$<iteration count>:<salt><
   
 
   
-   Note that the unique key on this catalog is (collname,
-   collencoding>, collnamespace>) not just
-   (collname>, collnamespace>).
+   Note that the unique key on this catalog is (collnamestructfield>,
+   collencodingstructfield>, collnamespace>) not just
+   (collnamestructfield>, collnamespace>).
    PostgreSQL generally ignores all
-   collations that do not have collencoding equal to
+   collations that do not have collencodingstructfield> equal to
    either the current database's encoding or -1, and creation of new entries
-   with the same name as an entry with collencoding = -1
+   with the same name as an entry with collencodingstructfield> = -1
    is forbidden.  Therefore it is sufficient to use a qualified SQL name
-   (schema>.name>) to identify a collation,
+   (schemareplaceable>.name>) to identify a collation,
    even though this is not unique according to the catalog definition.
    The reason for defining the catalog this way is that
-   initdb fills it in at cluster initialization time with
+   initdbapplication> fills it in at cluster initialization time with
    entries for all locales available on the system, so it must be able to
    hold entries for all encodings that might ever be used in the cluster.
   
 
   
-   In the template0 database, it could be useful to create
+   In the template0literal> database, it could be useful to create
    collations whose encoding does not match the database encoding,
    since they could match the encodings of databases later cloned from
-   template0.  This would currently have to be done manually.
+   template0literal>.  This would currently have to be done manually.
   
  
 
@@ -2143,13 +2143,13 @@ SCRAM-SHA-256$<iteration count>:<salt><
    key, unique, foreign key, and exclusion constraints on tables.
    (Column constraints are not treated specially.  Every column constraint is
    equivalent to some table constraint.)
-   Not-null constraints are represented in the pg_attribute
+   Not-null constraints are represented in the pg_attributestructname>
    catalog, not here.
   
 
   
    User-defined constraint triggers (created with CREATE CONSTRAINT
-   TRIGGER) also give rise to an entry in this table.
+   TRIGGERcommand>) also give rise to an entry in this table.
   
 
   
@@ -2157,7 +2157,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
   
 
   
-   <structname>pg_constraint</> Columns
+   <structname>pg_constraint</<span class="marked">structname</span>> Columns
 
    
     
@@ -2198,12 +2198,12 @@ SCRAM-SHA-256$<iteration count>:<salt><
       char
       
       
-        c = check constraint,
-        f = foreign key constraint,
-        p = primary key constraint,
-        u = unique constraint,
-        t = constraint trigger,
-        x = exclusion constraint
+        cliteral> = check constraint,
+        fliteral> = foreign key constraint,
+        pliteral> = primary key constraint,
+        uliteral> = unique constraint,
+        tliteral> = constraint trigger,
+        xliteral> = exclusion constraint
       
      
 
@@ -2263,11 +2263,11 @@ SCRAM-SHA-256$<iteration count>:<salt><
       char
       
       Foreign key update action code:
-            a = no action,
-            r = restrict,
-            c = cascade,
-            n = set null,
-            d = set default
+            aliteral> = no action,
+            rliteral> = restrict,
+            cliteral> = cascade,
+            nliteral> = set null,
+            dliteral> = set default
           
      
 
@@ -2276,11 +2276,11 @@ SCRAM-SHA-256$<iteration count>:<salt><
       char
       
       Foreign key deletion action code:
-            a = no action,
-            r = restrict,
-            c = cascade,
-            n = set null,
-            d = set default
+            aliteral> = no action,
+            rliteral> = restrict,
+            cliteral> = cascade,
+            nliteral> = set null,
+            dliteral> = set default
           
      
 
@@ -2289,9 +2289,9 @@ SCRAM-SHA-256$<iteration count>:<salt><
       char
       
       Foreign key match type:
-            f = full,
-            p = partial,
-            s = simple
+            fliteral> = full,
+            pliteral> = partial,
+            sliteral> = simple
           
      
 
@@ -2329,7 +2329,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
      
       conkey
       int2[]
-      pg_attribute.attnum
+      pg_attribute.attnumliteral>
       If a table constraint (including foreign keys, but not constraint
        triggers), list of the constrained columns
      
@@ -2337,35 +2337,35 @@ SCRAM-SHA-256$<iteration count>:<salt><
      
       confkey
       int2[]
-      pg_attribute.attnum
+      pg_attribute.attnumliteral>
       If a foreign key, list of the referenced columns
      
 
      
       conpfeqop
       oid[]
-      pg_operator.oid
+      pg_operator.oidliteral>
       If a foreign key, list of the equality operators for PK = FK comparisons
      
 
      
       conppeqop
       oid[]
-      pg_operator.oid
+      pg_operator.oidliteral>
       If a foreign key, list of the equality operators for PK = PK comparisons
      
 
      
       conffeqop
       oid[]
-      pg_operator.oid
+      pg_operator.oidliteral>
       If a foreign key, list of the equality operators for FK = FK comparisons
      
 
      
       conexclop
       oid[]
-      pg_operator.oid
+      pg_operator.oidliteral>
       If an exclusion constraint, list of the per-column exclusion operators
      
 
@@ -2392,7 +2392,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
    For other cases, a zero appears in conkey
    and the associated index must be consulted to discover the expression
    that is constrained.  (conkey thus has the
-   same contents as pg_index>.indkey> for the
+   same contents as pg_indexstructname>.indkey> for the
    index.)
   
 
@@ -2400,7 +2400,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
    
     consrc is not updated when referenced objects
     change; for example, it won't track renaming of columns.  Rather than
-    relying on this field, it's best to use pg_get_constraintdef()
+    relying on this field, it's best to use pg_get_constraintdef()function>
     to extract the definition of a check constraint.
    
   
@@ -2429,7 +2429,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
   
 
   
-   <structname>pg_conversion</> Columns
+   <structname>pg_conversion</<span class="marked">structname</span>> Columns
 
    
     
@@ -2529,7 +2529,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
   
 
   
-   <structname>pg_database</> Columns
+   <structname>pg_database</<span class="marked">structname</span>> Columns
 
    
     
@@ -2592,7 +2592,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
       
       
        If true, then this database can be cloned by
-       any user with CREATEDB privileges;
+       any user with CREATEDBliteral> privileges;
        if false, then only superusers or the owner of
        the database can clone it.
       
@@ -2604,7 +2604,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
       
       
        If false then no one can connect to this database.  This is
-       used to protect the template0 database from being altered.
+       used to protect the template0literal> database from being altered.
       
      
 
@@ -2634,11 +2634,11 @@ SCRAM-SHA-256$<iteration count>:<salt><
       
       
        All transaction IDs before this one have been replaced with a permanent
-       (frozen) transaction ID in this database.  This is used to
+       (frozenquote>) transaction ID in this database.  This is used to
        track whether the database needs to be vacuumed in order to prevent
-       transaction ID wraparound or to allow pg_xact to be shrunk.
+       transaction ID wraparound or to allow pg_xactliteral> to be shrunk.
        It is the minimum of the per-table
-       pg_class>.relfrozenxid> values.
+       pg_classstructname>.relfrozenxid> values.
       
      
 
@@ -2650,9 +2650,9 @@ SCRAM-SHA-256$<iteration count>:<salt><
        All multixact IDs before this one have been replaced with a
        transaction ID in this database.  This is used to
        track whether the database needs to be vacuumed in order to prevent
-       multixact ID wraparound or to allow pg_multixact to be shrunk.
+       multixact ID wraparound or to allow pg_multixactliteral> to be shrunk.
        It is the minimum of the per-table
-       pg_class>.relminmxid> values.
+       pg_classstructname>.relminmxid> values.
       
      
 
@@ -2663,7 +2663,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
       
        The default tablespace for the database.
        Within this database, all tables for which
-       pg_class>.reltablespace> is zero
+       pg_classstructname>.reltablespace> is zero
        will be stored in this tablespace; in particular, all the non-shared
        system catalogs will be there.
       
@@ -2707,7 +2707,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
   
 
   
-   <structname>pg_db_role_setting</> Columns
+   <structname>pg_db_role_setting</<span class="marked">structname</span>> Columns
 
    
     
@@ -2754,12 +2754,12 @@ SCRAM-SHA-256$<iteration count>:<salt><
   
 
   
-   The catalog pg_default_acl stores initial
+   The catalog pg_default_aclstructname> stores initial
    privileges to be assigned to newly created objects.
   
 
   
-   <structname>pg_default_acl</> Columns
+   <structname>pg_default_acl</<span class="marked">structname</span>> Columns
 
    
     
@@ -2800,10 +2800,10 @@ SCRAM-SHA-256$<iteration count>:<salt><
       
       
        Type of object this entry is for:
-       r = relation (table, view),
-       S = sequence,
-       f = function,
-       T = type
+       rliteral> = relation (table, view),
+       Sliteral> = sequence,
+       fliteral> = function,
+       Tliteral> = type
       
      
 
@@ -2820,21 +2820,21 @@ SCRAM-SHA-256$<iteration count>:<salt><
   
 
   
-   A pg_default_acl entry shows the initial privileges to
+   A pg_default_aclstructname> entry shows the initial privileges to
    be assigned to an object belonging to the indicated user.  There are
-   currently two types of entry: global entries with
-   defaclnamespace> = 0, and per-schema> entries
+   currently two types of entry: globalquote> entries with
+   defaclnamespacestructfield> = 0, and per-schema> entries
    that reference a particular schema.  If a global entry is present then
-   it overrides the normal hard-wired default privileges
+   it overridesemphasis> the normal hard-wired default privileges
    for the object type.  A per-schema entry, if present, represents privileges
-   to be added to the global or hard-wired default privileges.
+   to be added toemphasis> the global or hard-wired default privileges.
   
 
   
    Note that when an ACL entry in another catalog is null, it is taken
    to represent the hard-wired default privileges for its object,
-   not> whatever might be in pg_default_acl>
-   at the moment.  pg_default_acl is only consulted during
+   notemphasis> whatever might be in pg_default_acl>
+   at the moment.  pg_default_aclstructname> is only consulted during
    object creation.
   
 
@@ -2851,9 +2851,9 @@ SCRAM-SHA-256$<iteration count>:<salt><
   
    The catalog pg_depend records the dependency
    relationships between database objects.  This information allows
-   DROP commands to find which other objects must be dropped
-   by DROP CASCADE or prevent dropping in the DROP
-   RESTRICT case.
+   DROPcommand> commands to find which other objects must be dropped
+   by DROP CASCADEcommand> or prevent dropping in the DROP
+   RESTRICTcommand> case.
   
 
   
@@ -2863,7 +2863,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
   
 
   
-   <structname>pg_depend</> Columns
+   <structname>pg_depend</<span class="marked">structname</span>> Columns
 
    
     
@@ -2896,7 +2896,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
       
       
        For a table column, this is the column number (the
-       objid> and classid> refer to the
+       objidstructfield> and classid> refer to the
        table itself).  For all other object types, this column is
        zero.
       
@@ -2922,7 +2922,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
       
       
        For a table column, this is the column number (the
-       refobjid> and refclassid> refer
+       refobjidstructfield> and refclassid> refer
        to the table itself).  For all other object types, this column
        is zero.
       
@@ -2945,17 +2945,17 @@ SCRAM-SHA-256$<iteration count>:<salt><
    In all cases, a pg_depend entry indicates that the
    referenced object cannot be dropped without also dropping the dependent
    object.  However, there are several subflavors identified by
-   deptype:
+   deptypestructfield>:
 
    
     
-     DEPENDENCY_NORMAL> (n>)
+     DEPENDENCY_NORMALsymbol> (n>)
      
       
        A normal relationship between separately-created objects.  The
        dependent object can be dropped without affecting the
        referenced object.  The referenced object can only be dropped
-       by specifying CASCADE, in which case the dependent
+       by specifying CASCADEliteral>, in which case the dependent
        object is dropped, too.  Example: a table column has a normal
        dependency on its data type.
       
@@ -2963,12 +2963,12 @@ SCRAM-SHA-256$<iteration count>:<salt><
     
 
     
-     DEPENDENCY_AUTO> (a>)
+     DEPENDENCY_AUTOsymbol> (a>)
      
       
        The dependent object can be dropped separately from the
        referenced object, and should be automatically dropped
-       (regardless of RESTRICT> or CASCADE>
+       (regardless of RESTRICTliteral> or CASCADE>
        mode) if the referenced object is dropped.  Example: a named
        constraint on a table is made autodependent on the table, so
        that it will go away if the table is dropped.
@@ -2977,41 +2977,41 @@ SCRAM-SHA-256$<iteration count>:<salt><
     
 
     
-     DEPENDENCY_INTERNAL> (i>)
+     DEPENDENCY_INTERNALsymbol> (i>)
      
       
        The dependent object was created as part of creation of the
        referenced object, and is really just a part of its internal
-       implementation.  A DROP of the dependent object
+       implementation.  A DROPcommand> of the dependent object
        will be disallowed outright (we'll tell the user to issue a
-       DROP against the referenced object, instead).  A
-       DROP of the referenced object will be propagated
+       DROPcommand> against the referenced object, instead).  A
+       DROPcommand> of the referenced object will be propagated
        through to drop the dependent object whether
-       CASCADE is specified or not.  Example: a trigger
+       CASCADEcommand> is specified or not.  Example: a trigger
        that's created to enforce a foreign-key constraint is made
        internally dependent on the constraint's
-       pg_constraint entry.
+       pg_constraintstructname> entry.
       
      
     
 
     
-     DEPENDENCY_EXTENSION> (e>)
+     DEPENDENCY_EXTENSIONsymbol> (e>)
      
       
-       The dependent object is a member of the extension that is
+       The dependent object is a member of the extensionfirstterm> that is
        the referenced object (see
        pg_extension).
        The dependent object can be dropped only via
-       DROP EXTENSION on the referenced object.  Functionally
+       DROP EXTENSIONcommand> on the referenced object.  Functionally
        this dependency type acts the same as an internal dependency, but
-       it's kept separate for clarity and to simplify pg_dump.
+       it's kept separate for clarity and to simplify pg_dumpapplication>.
       
      
     
 
     
-     DEPENDENCY_AUTO_EXTENSION> (x>)
+     DEPENDENCY_AUTO_EXTENSIONsymbol> (x>)
      
       
        The dependent object is not a member of the extension that is the
@@ -3024,7 +3024,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
     
 
     
-     DEPENDENCY_PIN> (p>)
+     DEPENDENCY_PINsymbol> (p>)
      
       
        There is no dependent object; this type of entry is a signal
@@ -3051,7 +3051,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
   
 
   
-   The catalog pg_description stores optional descriptions
+   The catalog pg_descriptionstructname> stores optional descriptions
    (comments) for each database object.  Descriptions can be manipulated
    with the  command and viewed with
    psql's \d commands.
@@ -3066,7 +3066,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
   
 
   
-   <structname>pg_description</> Columns
+   <structname>pg_description</<span class="marked">structname</span>> Columns
 
    
     
@@ -3099,7 +3099,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
       
       
        For a comment on a table column, this is the column number (the
-       objoid> and classoid> refer to
+       objoidstructfield> and classoid> refer to
        the table itself).  For all other object types, this column is
        zero.
       
@@ -3133,7 +3133,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
   
 
   
-   <structname>pg_enum</> Columns
+   <structname>pg_enum</<span class="marked">structname</span>> Columns
 
    
     
@@ -3157,7 +3157,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
       enumtypid
       oid
       pg_type.oid
-      The OID of the pg_type entry owning this enum value
+      The OID of the pg_typestructname> entry owning this enum value
      
 
      
@@ -3191,7 +3191,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
 
   
    When an enum type is created, its members are assigned sort-order
-   positions 1..n.  But members added later might be given
+   positions 1..nreplaceable>.  But members added later might be given
    negative or fractional values of enumsortorder.
    The only requirement on these values is that they be correctly
    ordered and unique within each enum type.
@@ -3212,7 +3212,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
   
 
   
-   <structname>pg_event_trigger</> Columns
+   <structname>pg_event_trigger</<span class="marked">structname</span>> Columns
 
    
     
@@ -3260,10 +3260,10 @@ SCRAM-SHA-256$<iteration count>:<salt><
       
        Controls in which  modes
        the event trigger fires.
-       O> = trigger fires in origin and local> modes,
-       D = trigger is disabled,
-       R> = trigger fires in replica> mode,
-       A = trigger fires always.
+       Oliteral> = trigger fires in origin and local> modes,
+       Dliteral> = trigger is disabled,
+       Rliteral> = trigger fires in replica> mode,
+       Aliteral> = trigger fires always.
       
      
 
@@ -3296,7 +3296,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
   
 
   
-   <structname>pg_extension</> Columns
+   <structname>pg_extension</<span class="marked">structname</span>> Columns
 
    
     
@@ -3355,16 +3355,16 @@ SCRAM-SHA-256$<iteration count>:<salt><
       extconfig
       oid[]
       pg_class.oid
-      Array of regclass OIDs for the extension's configuration
-       table(s), or NULL if none
+      Array of regclasstype> OIDs for the extension's configuration
+       table(s), or NULLliteral> if none
      
 
      
       extcondition
       text[]
       
-      Array of WHERE-clause filter conditions for the
-       extension's configuration table(s), or NULL if none
+      Array of WHEREliteral>-clause filter conditions for the
+       extension's configuration table(s), or NULLliteral> if none
      
 
     
@@ -3372,7 +3372,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
   
 
   
-   Note that unlike most catalogs with a namespace column,
+   Note that unlike most catalogs with a namespacequote> column,
    extnamespace is not meant to imply
    that the extension belongs to that schema.  Extension names are never
    schema-qualified.  Rather, extnamespace
@@ -3399,7 +3399,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
   
 
   
-   <structname>pg_foreign_data_wrapper</> Columns
+   <structname>pg_foreign_data_wrapper</<span class="marked">structname</span>> Columns
 
    
     
@@ -3474,7 +3474,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
       text[]
       
       
-       Foreign-data wrapper specific options, as keyword=value strings
+       Foreign-data wrapper specific options, as keyword=valuequote> strings
       
      
     
@@ -3498,7 +3498,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
   
 
   
-   <structname>pg_foreign_server</> Columns
+   <structname>pg_foreign_server</<span class="marked">structname</span>> Columns
 
    
     
@@ -3570,7 +3570,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
       text[]
       
       
-       Foreign server specific options, as keyword=value strings
+       Foreign server specific options, as keyword=valuequote> strings
       
      
     
@@ -3596,7 +3596,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
   
 
   
-   <structname>pg_foreign_table</> Columns
+   <structname>pg_foreign_table</<span class="marked">structname</span>> Columns
 
    
     
@@ -3613,7 +3613,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
       ftrelid
       oid
       pg_class.oid
-      OID of the pg_class entry for this foreign table
+      OID of the pg_classstructname> entry for this foreign table
      
 
      
@@ -3628,7 +3628,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
       text[]
       
       
-       Foreign table options, as keyword=value strings
+       Foreign table options, as keyword=valuequote> strings
       
      
     
@@ -3651,7 +3651,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
   
 
   
-   <structname>pg_index</> Columns
+   <structname>pg_index</<span class="marked">structname</span>> Columns
 
    
     
@@ -3668,14 +3668,14 @@ SCRAM-SHA-256$<iteration count>:<salt><
       indexrelid
       oid
       pg_class.oid
-      The OID of the pg_class entry for this index
+      The OID of the pg_classstructname> entry for this index
      
 
      
       indrelid
       oid
       pg_class.oid
-      The OID of the pg_class entry for the table this index is for
+      The OID of the pg_classstructname> entry for the table this index is for
      
 
      
@@ -3698,7 +3698,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
       bool
       
       If true, this index represents the primary key of the table
-      (indisunique should always be true when this is true)
+      (indisuniquestructfield> should always be true when this is true)
      
 
      
@@ -3714,7 +3714,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
       
       If true, the uniqueness check is enforced immediately on
        insertion
-       (irrelevant if indisunique is not true)
+       (irrelevant if indisuniquestructfield> is not true)
      
 
      
@@ -3731,7 +3731,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
       
        If true, the index is currently valid for queries.  False means the
        index is possibly incomplete: it must still be modified by
-       INSERT>/UPDATE> operations, but it cannot safely
+       INSERTcommand>/UPDATE> operations, but it cannot safely
        be used for queries. If it is unique, the uniqueness property is not
        guaranteed true either.
       
@@ -3742,8 +3742,8 @@ SCRAM-SHA-256$<iteration count>:<salt><
       bool
       
       
-       If true, queries must not use the index until the xmin
-       of this pg_index row is below their TransactionXmin
+       If true, queries must not use the index until the xminstructfield>
+       of this pg_indexstructname> row is below their TransactionXmin
        event horizon, because the table may contain broken HOT chains with
        incompatible rows that they can see
       
@@ -3755,7 +3755,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
       
       
        If true, the index is currently ready for inserts.  False means the
-       index must be ignored by INSERT>/UPDATE>
+       index must be ignored by INSERTcommand>/UPDATE>
        operations.
       
      
@@ -3775,9 +3775,9 @@ SCRAM-SHA-256$<iteration count>:<salt><
       bool
       
       
-       If true this index has been chosen as replica identity
+       If true this index has been chosen as replica identityquote>
        using ALTER TABLE ... REPLICA IDENTITY USING INDEX
-       ...
+       ...command>
       
      
 
@@ -3836,7 +3836,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
        Expression trees (in nodeToString()
        representation) for index attributes that are not simple column
        references.  This is a list with one element for each zero
-       entry in indkey.  Null if all index attributes
+       entry in indkeystructfield>.  Null if all index attributes
        are simple references.
       
      
@@ -3866,14 +3866,14 @@ SCRAM-SHA-256$<iteration count>:<salt><
   
 
   
-   The catalog pg_inherits records information about
+   The catalog pg_inheritsstructname> records information about
    table inheritance hierarchies.  There is one entry for each direct
    parent-child table relationship in the database.  (Indirect inheritance can be determined
    by following chains of entries.)
   
 
   
-   <structname>pg_inherits</> Columns
+   <structname>pg_inherits</<span class="marked">structname</span>> Columns
 
    
     
@@ -3928,7 +3928,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
   
 
   
-   The catalog pg_init_privs records information about
+   The catalog pg_init_privsstructname> records information about
    the initial privileges of objects in the system.  There is one entry
    for each object in the database which has a non-default (non-NULL)
    initial set of privileges.
@@ -3936,7 +3936,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
 
   
    Objects can have initial privileges either by having those privileges set
-   when the system is initialized (by initdb) or when the
+   when the system is initialized (by initdbapplication>) or when the
    object is created during a CREATE EXTENSION and the
    extension script sets initial privileges using the GRANT
    system.  Note that the system will automatically handle recording of the
@@ -3944,12 +3944,12 @@ SCRAM-SHA-256$<iteration count>:<salt><
    only use the GRANT and REVOKE
    statements in their script to have the privileges recorded.  The
    privtype column indicates if the initial privilege was
-   set by initdb or during a
+   set by initdbapplication> or during a
    CREATE EXTENSION command.
   
 
   
-   Objects which have initial privileges set by initdb will
+   Objects which have initial privileges set by initdbapplication> will
    have entries where privtype is
    'i', while objects which have initial privileges set
    by CREATE EXTENSION will have entries where
@@ -3957,7 +3957,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
   
 
   
-   <structname>pg_init_privs</> Columns
+   <structname>pg_init_privs</<span class="marked">structname</span>> Columns
 
    
     
@@ -3990,7 +3990,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
       
       
        For a table column, this is the column number (the
-       objoid> and classoid> refer to the
+       objoidstructfield> and classoid> refer to the
        table itself).  For all other object types, this column is
        zero.
       
@@ -4039,7 +4039,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
   
 
   
-   <structname>pg_language</> Columns
+   <structname>pg_language</<span class="marked">structname</span>> Columns
 
    
     
@@ -4116,7 +4116,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
       pg_proc.oid
       
        This references a function that is responsible for executing
-       inline anonymous code blocks
+       inlinequote> anonymous code blocks
        ( blocks).
        Zero if inline blocks are not supported.
       
@@ -4162,24 +4162,24 @@ SCRAM-SHA-256$<iteration count>:<salt><
    The catalog pg_largeobject holds the data making up
    large objects.  A large object is identified by an OID
    assigned when it is created.  Each large object is broken into
-   segments or pages small enough to be conveniently stored as rows
+   segments or pagesquote> small enough to be conveniently stored as rows
    in pg_largeobject.
-   The amount of data per page is defined to be LOBLKSIZE (which is currently
-   BLCKSZ/4, or typically 2 kB).
+   The amount of data per page is defined to be LOBLKSIZEsymbol> (which is currently
+   BLCKSZ/4literal>, or typically 2 kB).
   
 
   
-   Prior to PostgreSQL 9.0, there was no permission structure
+   Prior to PostgreSQLproductname> 9.0, there was no permission structure
    associated with large objects.  As a result,
    pg_largeobject was publicly readable and could be
    used to obtain the OIDs (and contents) of all large objects in the system.
    This is no longer the case; use
-   pg_largeobject_metadata
+   pg_largeobject_metadatastructname>
    to obtain a list of large object OIDs.
   
 
   
-   <structname>pg_largeobject</> Columns
+   <structname>pg_largeobject</<span class="marked">structname</span>> Columns
 
    
     
@@ -4213,7 +4213,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
       
       
        Actual data stored in the large object.
-       This will never be more than LOBLKSIZE bytes and might be less.
+       This will never be more than LOBLKSIZEsymbol> bytes and might be less.
       
      
     
@@ -4223,9 +4223,9 @@ SCRAM-SHA-256$<iteration count>:<salt><
   
    Each row of pg_largeobject holds data
    for one page of a large object, beginning at
-   byte offset (pageno * LOBLKSIZE) within the object.  The implementation
+   byte offset (pageno * LOBLKSIZEliteral>) within the object.  The implementation
    allows sparse storage: pages might be missing, and might be shorter than
-   LOBLKSIZE bytes even if they are not the last page of the object.
+   LOBLKSIZEliteral> bytes even if they are not the last page of the object.
    Missing regions within a large object read as zeroes.
   
 
@@ -4242,11 +4242,11 @@ SCRAM-SHA-256$<iteration count>:<salt><
    The catalog pg_largeobject_metadata
    holds metadata associated with large objects.  The actual large object
    data is stored in
-   pg_largeobject.
+   pg_largeobjectstructname>.
   
 
   
-   <structname>pg_largeobject_metadata</> Columns
+   <structname>pg_largeobject_metadata</<span class="marked">structname</span>> Columns
 
    
     
@@ -4299,14 +4299,14 @@ SCRAM-SHA-256$<iteration count>:<salt><
   
 
   
-   The catalog pg_namespace stores namespaces.
+   The catalog pg_namespacestructname> stores namespaces.
    A namespace is the structure underlying SQL schemas: each namespace
    can have a separate collection of relations, types, etc. without name
    conflicts.
   
 
   
-   <structname>pg_namespace</> Columns
+   <structname>pg_namespace</<span class="marked">structname</span>> Columns
 
    
     
@@ -4381,7 +4381,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
   
 
   
-   <structname>pg_opclass</> Columns
+   <structname>pg_opclass</<span class="marked">structname</span>> Columns
 
    
     
@@ -4447,14 +4447,14 @@ SCRAM-SHA-256$<iteration count>:<salt><
       opcdefault
       bool
       
-      True if this operator class is the default for opcintype
+      True if this operator class is the default for opcintypestructfield>
      
 
      
       opckeytype
       oid
       pg_type.oid
-      Type of data stored in index, or zero if same as opcintype
+      Type of data stored in index, or zero if same as opcintypestructfield>
      
 
     
@@ -4462,11 +4462,11 @@ SCRAM-SHA-256$<iteration count>:<salt><
   
 
   
-   An operator class's opcmethod must match the
-   opfmethod of its containing operator family.
+   An operator class's opcmethodstructfield> must match the
+   opfmethodstructname> of its containing operator family.
    Also, there must be no more than one pg_opclass
-   row having opcdefault true for any given combination of
-   opcmethod> and opcintype>.
+   row having opcdefaultstructname> true for any given combination of
+   opcmethodstructname> and opcintype>.
   
 
  
@@ -4480,13 +4480,13 @@ SCRAM-SHA-256$<iteration count>:<salt><
   
 
   
-   The catalog pg_operator stores information about operators.
+   The catalog pg_operatorstructname> stores information about operators.
    See 
    and  for more information.
   
 
   
-   <structname>pg_operator</> Columns
+   <structname>pg_operator</<span class="marked">structname</span>> Columns
 
    
     
@@ -4534,8 +4534,8 @@ SCRAM-SHA-256$<iteration count>:<salt><
       char
       
       
-       b> = infix (both), l> = prefix
-       (left), r = postfix (right)
+       bliteral> = infix (both), l> = prefix
+       (left), rliteral> = postfix (right)
       
      
 
@@ -4632,7 +4632,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
    Each operator family is a collection of operators and associated
    support routines that implement the semantics specified for a particular
    index access method.  Furthermore, the operators in a family are all
-   compatible, in a way that is specified by the access method.
+   compatiblequote>, in a way that is specified by the access method.
    The operator family concept allows cross-data-type operators to be used
    with indexes and to be reasoned about using knowledge of access method
    semantics.
@@ -4643,7 +4643,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
   
 
   
-   <structname>pg_opfamily</> Columns
+   <structname>pg_opfamily</<span class="marked">structname</span>> Columns
 
    
     
@@ -4720,7 +4720,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
   
 
   
-   <structname>pg_partitioned_table</> Columns
+   <structname>pg_partitioned_table</<span class="marked">structname</span>> Columns
 
    
     
@@ -4738,7 +4738,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
       partrelid
       oid
       pg_class.oid
-      The OID of the pg_class entry for this partitioned table
+      The OID of the pg_classstructname> entry for this partitioned table
      
 
      
@@ -4746,8 +4746,8 @@ SCRAM-SHA-256$<iteration count>:<salt><
       char
       
       
-       Partitioning strategy; l = list partitioned table,
-       r = range partitioned table
+       Partitioning strategy; lliteral> = list partitioned table,
+       rliteral> = range partitioned table
       
      
 
@@ -4763,7 +4763,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
       oid
       pg_class.oid
       
-       The OID of the pg_class entry for the default partition
+       The OID of the pg_classstructname> entry for the default partition
        of this partitioned table, or zero if this partitioned table does not
        have a default partition.
      
@@ -4813,7 +4813,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
        Expression trees (in nodeToString()
        representation) for partition key columns that are not simple column
        references.  This is a list with one element for each zero
-       entry in partattrs.  Null if all partition key columns
+       entry in partattrsstructfield>.  Null if all partition key columns
        are simple references.
       
      
@@ -4833,9 +4833,9 @@ SCRAM-SHA-256$<iteration count>:<salt><
 
   
    The catalog pg_pltemplate stores
-   template information for procedural languages.
+   templatequote> information for procedural languages.
    A template for a language allows the language to be created in a
-   particular database by a simple CREATE LANGUAGE command,
+   particular database by a simple CREATE LANGUAGEcommand> command,
    with no need to specify implementation details.
   
 
@@ -4848,7 +4848,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
   
 
   
-   <structname>pg_pltemplate</> Columns
+   <structname>pg_pltemplate</<span class="marked">structname</span>> Columns
 
    
     
@@ -4921,7 +4921,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
 
   
    
-    It is likely that pg_pltemplate will be removed in some
+    It is likely that pg_pltemplatestructname> will be removed in some
     future release of PostgreSQL, in favor of
     keeping this knowledge about procedural languages in their respective
     extension installation scripts.
@@ -4944,7 +4944,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
    command that it applies to (possibly all commands), the roles that it
    applies to, the expression to be added as a security-barrier
    qualification to queries that include the table, and the expression
-   to be added as a WITH CHECK option for queries that attempt to
+   to be added as a WITH CHECKliteral> option for queries that attempt to
    add new records to the table.
   
 
@@ -4982,11 +4982,11 @@ SCRAM-SHA-256$<iteration count>:<salt><
       char
       
       The command type to which the policy is applied:
-       r> for SELECT>,
-       a> for INSERT>,
-       w> for UPDATE>,
-       d> for DELETE>,
-       or * for all
+       rliteral> for SELECT>,
+       aliteral> for INSERT>,
+       wliteral> for UPDATE>,
+       dliteral> for DELETE>,
+       or *literal> for all
      
 
      
@@ -5023,8 +5023,8 @@ SCRAM-SHA-256$<iteration count>:<salt><
 
   
    
-    Policies stored in pg_policy are applied only when
-    pg_class>.relrowsecurity> is set for
+    Policies stored in pg_policystructname> are applied only when
+    pg_classstructname>.relrowsecurity> is set for
     their table.
    
   
@@ -5039,7 +5039,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
   
 
   
-   The catalog pg_proc stores information about functions (or procedures).
+   The catalog pg_procstructname> stores information about functions (or procedures).
    See 
    and  for more information.
   
@@ -5051,7 +5051,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
   
 
   
-   <structname>pg_proc</> Columns
+   <structname>pg_proc</<span class="marked">structname</span>> Columns
 
    
     
@@ -5106,7 +5106,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
       float4
       
       Estimated execution cost (in units of
-       ); if proretset,
+       ); if proretsetstructfield>,
        this is cost per row returned
      
 
@@ -5114,7 +5114,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
       prorows
       float4
       
-      Estimated number of result rows (zero if not proretset)
+      Estimated number of result rows (zero if not proretsetstructfield>)
      
 
      
@@ -5151,7 +5151,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
       prosecdef
       bool
       
-      Function is a security definer (i.e., a setuid
+      Function is a security definer (i.e., a setuidquote>
       function)
      
 
@@ -5195,11 +5195,11 @@ SCRAM-SHA-256$<iteration count>:<salt><
        provolatile tells whether the function's
        result depends only on its input arguments, or is affected by outside
        factors.
-       It is i for immutable functions,
+       It is i for immutablequote> functions,
        which always deliver the same result for the same inputs.
-       It is s for stable functions,
+       It is s for stablequote> functions,
        whose results (for fixed inputs) do not change within a scan.
-       It is v for volatile functions,
+       It is v for volatilequote> functions,
        whose results might change at any time.  (Use v also
        for functions with side-effects, so that calls to them cannot get
        optimized away.)
@@ -5251,7 +5251,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
       
        An array with the data types of the function arguments.  This includes
        only input arguments (including INOUT and
-       VARIADIC arguments), and thus represents
+       VARIADICliteral> arguments), and thus represents
        the call signature of the function.
       
      
@@ -5266,7 +5266,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
        INOUT arguments); however, if all the
        arguments are IN arguments, this field will be null.
        Note that subscripting is 1-based, whereas for historical reasons
-       proargtypes is subscripted from 0.
+       proargtypesstructfield> is subscripted from 0.
       
      
 
@@ -5276,15 +5276,15 @@ SCRAM-SHA-256$<iteration count>:<salt><
       
       
         An array with the modes of the function arguments, encoded as
-        i for IN arguments,
-        o for OUT arguments,
-        b for INOUT arguments,
-        v for VARIADIC arguments,
-        t for TABLE arguments.
+        i for INliteral> arguments,
+        o for OUTliteral> arguments,
+        b for INOUTliteral> arguments,
+        v for VARIADICliteral> arguments,
+        t for TABLEliteral> arguments.
         If all the arguments are IN arguments,
         this field will be null.
         Note that subscripts correspond to positions of
-        proallargtypes> not proargtypes>.
+        proallargtypesstructfield> not proargtypes>.
       
      
 
@@ -5297,7 +5297,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
         Arguments without a name are set to empty strings in the array.
         If none of the arguments have a name, this field will be null.
         Note that subscripts correspond to positions of
-        proallargtypes> not proargtypes>.
+        proallargtypesstructfield> not proargtypes>.
       
      
 
@@ -5308,9 +5308,9 @@ SCRAM-SHA-256$<iteration count>:<salt><
       
        Expression trees (in nodeToString() representation)
        for default values.  This is a list with
-       pronargdefaults elements, corresponding to the last
-       Ninput> arguments (i.e., the last
-       Nproargtypes> positions).
+       pronargdefaultsstructfield> elements, corresponding to the last
+       Nreplaceable> input> arguments (i.e., the last
+       Nreplaceable> proargtypes> positions).
        If none of the arguments have defaults, this field will be null.
       
      
@@ -5525,7 +5525,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
   
 
   
-   <structname>pg_range</> Columns
+   <structname>pg_range</<span class="marked">structname</span>> Columns
 
    
     
@@ -5586,10 +5586,10 @@ SCRAM-SHA-256$<iteration count>:<salt><
   
 
   
-   rngsubopc> (plus rngcollation>, if the
+   rngsubopcstructfield> (plus rngcollation>, if the
    element type is collatable) determines the sort ordering used by the range
-   type.  rngcanonical is used when the element type is
-   discrete.  rngsubdiff is optional but should be supplied to
+   type.  rngcanonicalstructfield> is used when the element type is
+   discrete.  rngsubdiffstructfield> is optional but should be supplied to
    improve performance of GiST indexes on the range type.
   
 
@@ -5655,7 +5655,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
   
 
   
-   <structname>pg_rewrite</> Columns
+   <structname>pg_rewrite</<span class="marked">structname</span>> Columns
 
    
     
@@ -5694,9 +5694,9 @@ SCRAM-SHA-256$<iteration count>:<salt><
       char
       
       
-       Event type that the rule is for: 1 = SELECT, 2 =
-       UPDATE>, 3 = INSERT>, 4 =
-       DELETE
+       Event type that the rule is for: 1 = SELECTcommand>, 2 =
+       UPDATEcommand>, 3 = INSERT>, 4 =
+       DELETEcommand>
       
      
 
@@ -5707,10 +5707,10 @@ SCRAM-SHA-256$<iteration count>:<salt><
       
        Controls in which  modes
        the rule fires.
-       O> = rule fires in origin and local> modes,
-       D = rule is disabled,
-       R> = rule fires in replica> mode,
-       A = rule fires always.
+       Oliteral> = rule fires in origin and local> modes,
+       Dliteral> = rule is disabled,
+       Rliteral> = rule fires in replica> mode,
+       Aliteral> = rule fires always.
       
      
 
@@ -5809,7 +5809,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
       
       
        For a security label on a table column, this is the column number (the
-       objoid> and classoid> refer to
+       objoidstructfield> and classoid> refer to
        the table itself).  For all other object types, this column is
        zero.
       
@@ -5847,7 +5847,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
   
 
   
-   <structname>pg_sequence</> Columns
+   <structname>pg_sequence</<span class="marked">structname</span>> Columns
 
    
     
@@ -5864,7 +5864,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
       seqrelid
       oid
       pg_class.oid
-      The OID of the pg_class entry for this sequence
+      The OID of the pg_classstructname> entry for this sequence
      
 
      
@@ -5949,7 +5949,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
   
 
   
-   <structname>pg_shdepend</> Columns
+   <structname>pg_shdepend</<span class="marked">structname</span>> Columns
 
    
     
@@ -5990,7 +5990,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
       
       
        For a table column, this is the column number (the
-       objid> and classid> refer to the
+       objidstructfield> and classid> refer to the
        table itself).  For all other object types, this column is zero.
       
      
@@ -6027,11 +6027,11 @@ SCRAM-SHA-256$<iteration count>:<salt><
    In all cases, a pg_shdepend entry indicates that
    the referenced object cannot be dropped without also dropping the dependent
    object.  However, there are several subflavors identified by
-   deptype:
+   deptypestructfield>:
 
    
     
-     SHARED_DEPENDENCY_OWNER> (o>)
+     SHARED_DEPENDENCY_OWNERsymbol> (o>)
      
       
        The referenced object (which must be a role) is the owner of the
@@ -6041,20 +6041,20 @@ SCRAM-SHA-256$<iteration count>:<salt><
     
 
     
-     SHARED_DEPENDENCY_ACL> (a>)
+     SHARED_DEPENDENCY_ACLsymbol> (a>)
      
       
        The referenced object (which must be a role) is mentioned in the
        ACL (access control list, i.e., privileges list) of the
-       dependent object.  (A SHARED_DEPENDENCY_ACL entry is
+       dependent object.  (A SHARED_DEPENDENCY_ACLsymbol> entry is
        not made for the owner of the object, since the owner will have
-       a SHARED_DEPENDENCY_OWNER entry anyway.)
+       a SHARED_DEPENDENCY_OWNERsymbol> entry anyway.)
       
      
     
 
     
-     SHARED_DEPENDENCY_POLICY> (r>)
+     SHARED_DEPENDENCY_POLICYsymbol> (r>)
      
       
        The referenced object (which must be a role) is mentioned as the
@@ -6064,7 +6064,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
     
 
     
-     SHARED_DEPENDENCY_PIN> (p>)
+     SHARED_DEPENDENCY_PINsymbol> (p>)
      
       
        There is no dependent object; this type of entry is a signal
@@ -6111,7 +6111,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
   
 
   
-   <structname>pg_shdescription</> Columns
+   <structname>pg_shdescription</<span class="marked">structname</span>> Columns
 
    
     
@@ -6235,16 +6235,16 @@ SCRAM-SHA-256$<iteration count>:<salt><
   
 
   
-   Normally there is one entry, with stainherit =
-   false, for each table column that has been analyzed.
+   Normally there is one entry, with stainheritstructfield> =
+   falseliteral>, for each table column that has been analyzed.
    If the table has inheritance children, a second entry with
-   stainherit> = true> is also created.  This row
+   stainheritstructfield> = true> is also created.  This row
    represents the column's statistics over the inheritance tree, i.e.,
    statistics for the data you'd see with
-   SELECT column> FROM table>*,
-   whereas the stainherit> = false> row represents
+   SELECT columnreplaceable> FROM table>*,
+   whereas the stainheritstructfield> = false> row represents
    the results of
-   SELECT column> FROM ONLY table>.
+   SELECT columnreplaceable> FROM ONLY table>.
   
 
   
@@ -6254,7 +6254,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
    references the index.  No entry is made for an ordinary non-expression
    index column, however, since it would be redundant with the entry
    for the underlying table column.  Currently, entries for index expressions
-   always have stainherit> = false>.
+   always have stainheritstructfield> = false>.
   
 
   
@@ -6281,7 +6281,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
   
 
   
-   <structname>pg_statistic</> Columns
+   <structname>pg_statistic</<span class="marked">structname</span>> Columns
 
    
     
@@ -6339,56 +6339,56 @@ SCRAM-SHA-256$<iteration count>:<salt><
       A value less than zero is the negative of a multiplier for the number
       of rows in the table; for example, a column in which about 80% of the
       values are nonnull and each nonnull value appears about twice on
-      average could be represented by stadistinct = -0.4.
+      average could be represented by stadistinctstructfield> = -0.4.
       A zero value means the number of distinct values is unknown.
       
      
 
      
-      stakindN
+      stakindNreplaceable>
       int2
       
       
        A code number indicating the kind of statistics stored in the
-       Nth slot of the
+       Nreplaceable>th slot of the
        pg_statistic row.
       
      
 
      
-      staopN
+      staopNreplaceable>
       oid
       pg_operator.oid
       
        An operator used to derive the statistics stored in the
-       Nth slot.  For example, a
+       Nreplaceable>th slot.  For example, a
        histogram slot would show the < operator
        that defines the sort order of the data.
       
      
 
      
-      stanumbersN
+      stanumbersNreplaceable>
       float4[]
       
       
        Numerical statistics of the appropriate kind for the
-       Nth slot, or null if the slot
+       Nreplaceable>th slot, or null if the slot
        kind does not involve numerical values
       
      
 
      
-      stavaluesN
+      stavaluesNreplaceable>
       anyarray
       
       
        Column data values of the appropriate kind for the
-       Nth slot, or null if the slot
+       Nreplaceable>th slot, or null if the slot
        kind does not store any data values.  Each array's element
        values are actually of the specific column's data type, or a related
        type such as an array's element type, so there is no way to define
-       these columns' type more specifically than anyarray.
+       these columns' type more specifically than anyarraytype>.
       
      
     
@@ -6407,12 +6407,12 @@ SCRAM-SHA-256$<iteration count>:<salt><
   
    The catalog pg_statistic_ext
    holds extended planner statistics.
-   Each row in this catalog corresponds to a statistics object
+   Each row in this catalog corresponds to a statistics objectfirstterm>
    created with .
   
 
   
-   <structname>pg_statistic_ext</> Columns
+   <structname>pg_statistic_ext</<span class="marked">structname</span>> Columns
 
    
     
@@ -6485,7 +6485,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
       pg_ndistinct
       
       
-       N-distinct counts, serialized as pg_ndistinct type
+       N-distinct counts, serialized as pg_ndistinctstructname> type
       
      
 
@@ -6495,7 +6495,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
       
       
        Functional dependency statistics, serialized
-       as pg_dependencies type
+       as pg_dependenciesstructname> type
       
      
 
@@ -6507,7 +6507,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
    The stxkind field is filled at creation of the
    statistics object, indicating which statistic type(s) are desired.
    The fields after it are initially NULL and are filled only when the
-   corresponding statistic has been computed by ANALYZE.
+   corresponding statistic has been computed by ANALYZEcommand>.
   
  
 
@@ -6677,10 +6677,10 @@ SCRAM-SHA-256$<iteration count>:<salt><
       
       
        State code:
-       i = initialize,
-       d = data is being copied,
-       s = synchronized,
-       r = ready (normal replication)
+       iliteral> = initialize,
+       dliteral> = data is being copied,
+       sliteral> = synchronized,
+       rliteral> = ready (normal replication)
       
      
 
@@ -6689,7 +6689,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
       pg_lsn
       
       
-       End LSN for s> and r> states.
+       End LSN for sliteral> and r> states.
       
      
     
@@ -6718,7 +6718,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
   
 
   
-   <structname>pg_tablespace</> Columns
+   <structname>pg_tablespace</<span class="marked">structname</span>> Columns
 
    
     
@@ -6769,7 +6769,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
       text[]
       
       
-       Tablespace-level options, as keyword=value strings
+       Tablespace-level options, as keyword=valuequote> strings
       
      
     
@@ -6792,7 +6792,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
   
 
   
-   <structname>pg_transform</> Columns
+   <structname>pg_transform</<span class="marked">structname</span>> Columns
 
    
     
@@ -6861,7 +6861,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
   
 
   
-   <structname>pg_trigger</> Columns
+   <structname>pg_trigger</<span class="marked">structname</span>> Columns
 
    
     
@@ -6916,10 +6916,10 @@ SCRAM-SHA-256$<iteration count>:<salt><
       
        Controls in which  modes
        the trigger fires.
-       O> = trigger fires in origin and local> modes,
-       D = trigger is disabled,
-       R> = trigger fires in replica> mode,
-       A = trigger fires always.
+       Oliteral> = trigger fires in origin and local> modes,
+       Dliteral> = trigger is disabled,
+       Rliteral> = trigger fires in replica> mode,
+       Aliteral> = trigger fires always.
       
      
 
@@ -6928,7 +6928,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
       bool
       
       True if trigger is internally generated (usually, to enforce
-       the constraint identified by tgconstraint)
+       the constraint identified by tgconstraintstructfield>)
      
 
      
@@ -6950,7 +6950,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
       tgconstraint
       oid
       pg_constraint.oid
-      The pg_constraint entry associated with the trigger, if any
+      The pg_constraintstructname> entry associated with the trigger, if any
      
 
      
@@ -6994,7 +6994,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
       pg_node_tree
       
       Expression tree (in nodeToString()
-       representation) for the trigger's WHEN condition, or null
+       representation) for the trigger's WHENliteral> condition, or null
        if none
      
 
@@ -7002,7 +7002,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
       tgoldtable
       name
       
-      REFERENCING> clause name for OLD TABLE>,
+      REFERENCINGliteral> clause name for OLD TABLE>,
        or null if none
      
 
@@ -7010,7 +7010,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
       tgnewtable
       name
       
-      REFERENCING> clause name for NEW TABLE>,
+      REFERENCINGliteral> clause name for NEW TABLE>,
        or null if none
      
     
@@ -7019,18 +7019,18 @@ SCRAM-SHA-256$<iteration count>:<salt><
 
   
    Currently, column-specific triggering is supported only for
-   UPDATE> events, and so tgattr> is relevant
+   UPDATEliteral> events, and so tgattr> is relevant
    only for that event type.  tgtype might
    contain bits for other event types as well, but those are presumed
-   to be table-wide regardless of what is in tgattr.
+   to be table-wide regardless of what is in tgattrstructfield>.
   
 
   
    
-    When tgconstraint is nonzero,
-    tgconstrrelid>, tgconstrindid>,
-    tgdeferrable>, and tginitdeferred> are
-    largely redundant with the referenced pg_constraint entry.
+    When tgconstraintstructfield> is nonzero,
+    tgconstrrelidstructfield>, tgconstrindid>,
+    tgdeferrablestructfield>, and tginitdeferred> are
+    largely redundant with the referenced pg_constraintstructname> entry.
     However, it is possible for a non-deferrable trigger to be associated
     with a deferrable constraint: foreign key constraints can have some
     deferrable and some non-deferrable triggers.
@@ -7070,7 +7070,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
   
 
   
-   <structname>pg_ts_config</> Columns
+   <structname>pg_ts_config</<span class="marked">structname</span>> Columns
 
    
     
@@ -7145,7 +7145,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
   
 
   
-   <structname>pg_ts_config_map</> Columns
+   <structname>pg_ts_config_map</<span class="marked">structname</span>> Columns
 
    
     
@@ -7162,7 +7162,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
       mapcfg
       oid
       pg_ts_config.oid
-      The OID of the pg_ts_config entry owning this map entry
+      The OID of the pg_ts_configstructname> entry owning this map entry
      
 
      
@@ -7177,7 +7177,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
       integer
       
       Order in which to consult this entry (lower
-       mapseqnos first)
+       mapseqnostructfield>s first)
      
 
      
@@ -7206,7 +7206,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
    needed; the dictionary itself provides values for the user-settable
    parameters supported by the template.  This division of labor allows
    dictionaries to be created by unprivileged users.  The parameters
-   are specified by a text string dictinitoption,
+   are specified by a text string dictinitoptionstructfield>,
    whose format and meaning vary depending on the template.
   
 
@@ -7216,7 +7216,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
   
 
   
-   <structname>pg_ts_dict</> Columns
+   <structname>pg_ts_dict</<span class="marked">structname</span>> Columns
 
    
     
@@ -7299,7 +7299,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
   
 
   
-   <structname>pg_ts_parser</> Columns
+   <structname>pg_ts_parser</<span class="marked">structname</span>> Columns
 
    
     
@@ -7396,7 +7396,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
   
 
   
-   <structname>pg_ts_template</> Columns
+   <structname>pg_ts_template</<span class="marked">structname</span>> Columns
 
    
     
@@ -7470,7 +7470,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
   
 
   
-   <structname>pg_type</> Columns
+   <structname>pg_type</<span class="marked">structname</span>> Columns
 
    
     
@@ -7521,7 +7521,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
        For a fixed-size type, typlen is the number
        of bytes in the internal representation of the type.  But for a
        variable-length type, typlen is negative.
-       -1 indicates a varlena type (one that has a length word),
+       -1 indicates a varlenaquote> type (one that has a length word),
        -2 indicates a null-terminated C string.
       
      
@@ -7566,7 +7566,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
       
        typcategory is an arbitrary classification
        of data types that is used by the parser to determine which implicit
-       casts should be preferred.
+       casts should be preferredquote>.
        See .
       
      
@@ -7711,7 +7711,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
        typalign is the alignment required
        when storing a value of this type.  It applies to storage on
        disk as well as most representations of the value inside
-       PostgreSQL.
+       PostgreSQLproductname>.
        When multiple values are stored consecutively, such
        as in the representation of a complete row on disk, padding is
        inserted before a datum of this type so that it begins on the
@@ -7723,16 +7723,16 @@ SCRAM-SHA-256$<iteration count>:<salt><
        Possible values are:
        
         
-         c = char alignment, i.e., no alignment needed.
+         cliteral> = char alignment, i.e., no alignment needed.
         
         
-         s = short alignment (2 bytes on most machines).
+         sliteral> = short alignment (2 bytes on most machines).
         
         
-         i = int alignment (4 bytes on most machines).
+         iliteral> = int alignment (4 bytes on most machines).
         
         
-         d = double alignment (8 bytes on many machines, but by no means all).
+         dliteral> = double alignment (8 bytes on many machines, but by no means all).
         
        
       
@@ -7757,24 +7757,24 @@ SCRAM-SHA-256$<iteration count>:<salt><
        Possible values are
        
         
-         p: Value must always be stored plain.
+         pliteral>: Value must always be stored plain.
         
         
          
-          e: Value can be stored in a secondary
+          eliteral>: Value can be stored in a secondary
           relation (if relation has one, see
           pg_class.reltoastrelid).
          
         
         
-         m: Value can be stored compressed inline.
+         mliteral>: Value can be stored compressed inline.
         
         
-         x: Value can be stored compressed inline or stored in secondary storage.
+         xliteral>: Value can be stored compressed inline or stored in secondary storage.
         
        
-       Note that m columns can also be moved out to secondary
-       storage, but only as a last resort (e> and x> columns are
+       Note that mliteral> columns can also be moved out to secondary
+       storage, but only as a last resort (eliteral> and x> columns are
        moved first).
       
      
@@ -7805,9 +7805,9 @@ SCRAM-SHA-256$<iteration count>:<salt><
       int4
       
       
-       Domains use typtypmod to record the typmod
+       Domains use typtypmod to record the typmodliteral>
        to be applied to their base type (-1 if base type does not use a
-       typmod).  -1 if this type is not a domain.
+       typmodliteral>).  -1 if this type is not a domain.
       
      
 
@@ -7817,7 +7817,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
       
       
        typndims is the number of array dimensions
-       for a domain over an array (that is, typbasetype is
+       for a domain over an array (that is, typbasetypestructfield> is
        an array type).
        Zero for types other than domains over array types.
        
@@ -7842,7 +7842,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
       pg_node_tree
       
       
-       If typdefaultbin is not null, it is the
+       If typdefaultbinstructfield> is not null, it is the
        nodeToString()
        representation of a default expression for the type.  This is
        only used for domains.
@@ -7854,12 +7854,12 @@ SCRAM-SHA-256$<iteration count>:<salt><
       text
       
       
-       typdefault is null if the type has no associated
-       default value. If typdefaultbin is not null,
-       typdefault must contain a human-readable version of the
-       default expression represented by typdefaultbin.  If
-       typdefaultbin> is null and typdefault> is
-       not, then typdefault is the external representation of
+       typdefaultstructfield> is null if the type has no associated
+       default value. If typdefaultbinstructfield> is not null,
+       typdefaultstructfield> must contain a human-readable version of the
+       default expression represented by typdefaultbinstructfield>.  If
+       typdefaultbinstructfield> is null and typdefault> is
+       not, then typdefaultstructfield> is the external representation of
        the type's default value, which can be fed to the type's input
        converter to produce a constant.
       
@@ -7882,13 +7882,13 @@ SCRAM-SHA-256$<iteration count>:<salt><
 
   
     lists the system-defined values
-   of typcategory.  Any future additions to this list will
+   of typcategorystructfield>.  Any future additions to this list will
    also be upper-case ASCII letters.  All other ASCII characters are reserved
    for user-defined categories.
   
 
   
-   <structfield>typcategory</> Codes
+   <structfield>typcategory</<span class="marked">structfield</span>> Codes
 
    
     
@@ -7957,7 +7957,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
      
      
       X
-      unknown type
+      unknowntype> type
      
     
    
@@ -7982,7 +7982,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
   
 
   
-   <structname>pg_user_mapping</> Columns
+   <structname>pg_user_mapping</<span class="marked">structname</span>> Columns
 
    
     
@@ -8023,7 +8023,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
       text[]
       
       
-       User mapping specific options, as keyword=value strings
+       User mapping specific options, as keyword=valuequote> strings
       
      
     
@@ -8241,7 +8241,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
   
 
   
-   <structname>pg_available_extensions</> Columns
+   <structname>pg_available_extensions</<span class="marked">structname</span>> Columns
 
    
     
@@ -8303,7 +8303,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
   
 
   
-   <structname>pg_available_extension_versions</> Columns
+   <structname>pg_available_extension_versions</<span class="marked">structname</span>> Columns
 
    
     
@@ -8385,11 +8385,11 @@ SCRAM-SHA-256$<iteration count>:<salt><
   
    The view pg_config describes the
    compile-time configuration parameters of the currently installed
-   version of PostgreSQL. It is intended, for example, to
+   version of PostgreSQLproductname>. It is intended, for example, to
    be used by software packages that want to interface to
-   PostgreSQL to facilitate finding the required header
+   PostgreSQLproductname> to facilitate finding the required header
    files and libraries. It provides the same basic information as the
-    PostgreSQL client
+    PostgreSQLproductname> client
    application.
   
 
@@ -8399,7 +8399,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
   
 
   
-   <structname>pg_config</> Columns
+   <structname>pg_config</<span class="marked">structname</span>> Columns
    
     
      
@@ -8470,15 +8470,15 @@ SCRAM-SHA-256$<iteration count>:<salt><
    
     
      Cursors are used internally to implement some of the components
-     of PostgreSQL, such as procedural languages.
-     Therefore, the pg_cursors view might include cursors
+     of PostgreSQLproductname>, such as procedural languages.
+     Therefore, the pg_cursorsstructname> view might include cursors
      that have not been explicitly created by the user.
     
    
   
 
   
-   <structname>pg_cursors</> Columns
+   <structname>pg_cursors</<span class="marked">structname</span>> Columns
 
    
     
@@ -8526,7 +8526,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
       is_scrollable
       boolean
       
-       true if the cursor is scrollable (that is, it
+       trueliteral> if the cursor is scrollable (that is, it
        allows rows to be retrieved in a nonsequential manner);
        false otherwise
        
@@ -8557,16 +8557,16 @@ SCRAM-SHA-256$<iteration count>:<salt><
   
    The view pg_file_settings provides a summary of
    the contents of the server's configuration file(s).  A row appears in
-   this view for each name = value entry appearing in the files,
+   this view for each name = valuequote> entry appearing in the files,
    with annotations indicating whether the value could be applied
    successfully.  Additional row(s) may appear for problems not linked to
-   a name = value entry, such as syntax errors in the files.
+   a name = valuequote> entry, such as syntax errors in the files.
   
 
   
    This view is helpful for checking whether planned changes in the
    configuration files will work, or for diagnosing a previous failure.
-   Note that this view reports on the current contents of the
+   Note that this view reports on the currentemphasis> contents of the
    files, not on what was last applied by the server.  (The
    pg_settings
    view is usually sufficient to determine that.)
@@ -8578,7 +8578,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
   
 
   
-   <structname>pg_file_settings</> Columns
+   <structname>pg_file_settings</<span class="marked">structname</span>> Columns
 
   
    
@@ -8604,7 +8604,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
     
      seqno
      integer
-     Order in which the entries are processed (1..n)
+     Order in which the entries are processed (1..nreplaceable>)
     
     
      name
@@ -8634,14 +8634,14 @@ SCRAM-SHA-256$<iteration count>:<salt><
   
    If the configuration file contains syntax errors or invalid parameter
    names, the server will not attempt to apply any settings from it, and
-   therefore all the applied fields will read as false.
+   therefore all the appliedstructfield> fields will read as false.
    In such a case there will be one or more rows with
    non-null error fields indicating the
    problem(s).  Otherwise, individual settings will be applied if possible.
    If an individual setting cannot be applied (e.g., invalid value, or the
    setting cannot be changed after server start) it will have an appropriate
    message in the error field.  Another way that
-   an entry might have applied = false is that it is
+   an entry might have appliedstructfield> = false is that it is
    overridden by a later entry for the same parameter name; this case is not
    considered an error so nothing appears in
    the error field.
@@ -8666,12 +8666,12 @@ SCRAM-SHA-256$<iteration count>:<salt><
    compatibility: it emulates a catalog that existed in
    PostgreSQL before version 8.1.
    It shows the names and members of all roles that are marked as not
-   rolcanlogin, which is an approximation to the set
+   rolcanloginstructfield>, which is an approximation to the set
    of roles that are being used as groups.
   
 
   
-   <structname>pg_group</> Columns
+   <structname>pg_group</<span class="marked">structname</span>> Columns
 
    
     
@@ -8720,7 +8720,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
   
    The view pg_hba_file_rules provides a summary of
    the contents of the client authentication configuration
-   file, pg_hba.conf.  A row appears in this view for each
+   file, pg_hba.conffilename>.  A row appears in this view for each
    non-empty, non-comment line in the file, with annotations indicating
    whether the rule could be applied successfully.
   
@@ -8728,7 +8728,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
   
    This view can be helpful for checking whether planned changes in the
    authentication configuration file will work, or for diagnosing a previous
-   failure.  Note that this view reports on the current contents
+   failure.  Note that this view reports on the currentemphasis> contents
    of the file, not on what was last loaded by the server.
   
 
@@ -8738,7 +8738,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
   
 
   
-   <structname>pg_hba_file_rules</> Columns
+   <structname>pg_hba_file_rules</<span class="marked">structname</span>> Columns
 
   
    
@@ -8753,7 +8753,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
      line_number
      integer
      
-      Line number of this rule in pg_hba.conf
+      Line number of this rule in pg_hba.conffilename>
      
     
     
@@ -8809,7 +8809,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
 
   
    Usually, a row reflecting an incorrect entry will have values for only
-   the line_number> and error> fields.
+   the line_numberstructfield> and error> fields.
   
 
   
@@ -8831,7 +8831,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
   
 
   
-   <structname>pg_indexes</> Columns
+   <structname>pg_indexes</<span class="marked">structname</span>> Columns
 
    
     
@@ -8912,12 +8912,12 @@ SCRAM-SHA-256$<iteration count>:<salt><
    in the same way as in pg_description or
    pg_depend).  Also, the right to extend a
    relation is represented as a separate lockable object.
-   Also, advisory locks can be taken on numbers that have
+   Also, advisoryquote> locks can be taken on numbers that have
    user-defined meanings.
   
 
   
-   <structname>pg_locks</> Columns
+   <structname>pg_locks</<span class="marked">structname</span>> Columns
 
    
     
@@ -8935,15 +8935,15 @@ SCRAM-SHA-256$<iteration count>:<salt><
       
       
        Type of the lockable object:
-       relation,
-       extend,
-       page,
-       tuple,
-       transactionid,
-       virtualxid,
-       object,
-       userlock, or
-       advisory
+       relationliteral>,
+       extendliteral>,
+       pageliteral>,
+       tupleliteral>,
+       transactionidliteral>,
+       virtualxidliteral>,
+       objectliteral>,
+       userlockliteral>, or
+       advisoryliteral>
       
      
      
@@ -9025,7 +9025,7 @@ SCRAM-SHA-256$<iteration count>:<salt><
       
       
        Column number targeted by the lock (the
-       classid> and objid> refer to the
+       classidstructfield> and objid> refer to the
        table itself),
        or zero if the target is some other general database object,
        or null if the target is not a general database object
@@ -9107,23 +9107,23 @@ SCRAM-SHA-256$<iteration count>:<salt><
    Advisory locks can be acquired on keys consisting of either a single
    bigint value or two integer values.
    A bigint key is displayed with its
-   high-order half in the classid column, its low-order half
-   in the objid> column, and objsubid> equal
+   high-order half in the classidstructfield> column, its low-order half
+   in the objidstructfield> column, and objsubid> equal
    to 1. The original bigint value can be reassembled with the
    expression (classid::bigint << 32) |
    objid::bigint. Integer keys are displayed with the
    first key in the
-   classid> column, the second key in the objid>
-   column, and objsubid equal to 2.  The actual meaning of
+   classidstructfield> column, the second key in the objid>
+   column, and objsubidstructfield> equal to 2.  The actual meaning of
    the keys is up to the user.  Advisory locks are local to each database,
-   so the database column is meaningful for an advisory lock.
+   so the databasestructfield> column is meaningful for an advisory lock.
   
 
   
    pg_locks provides a global view of all locks
    in the database cluster, not only those relevant to the current database.
    Although its relation column can be joined
-   against pg_class>.oid> to identify locked
+   against pg_classstructname>.oid> to identify locked
    relations, this will only work correctly for relations in the current
    database (those for which the database column
    is either the current database's OID or zero).
@@ -9141,7 +9141,7 @@ SELECT * FROM pg_locks pl LEFT JOIN pg_stat_activity psa
     ON pl.pid = psa.pid;
 
    Also, if you are using prepared transactions, the
-   virtualtransaction column can be joined to the
+   virtualtransactionstructfield> column can be joined to the
    transaction column of the 
    linkend="view-pg-prepared-xacts">pg_prepared_xacts
    view to get more information on prepared transactions that hold locks.
@@ -9163,7 +9163,7 @@ SELECT * FROM pg_locks pl LEFT JOIN pg_prepared_xacts ppx
    information about which processes are ahead of which others in lock wait
    queues, nor information about which processes are parallel workers running
    on behalf of which other client sessions.  It is better to use
-   the pg_blocking_pids() function
+   the pg_blocking_pids()function> function
    (see ) to identify which
    process(es) a waiting process is blocked behind.
   
@@ -9172,10 +9172,10 @@ SELECT * FROM pg_locks pl LEFT JOIN pg_prepared_xacts ppx
    The pg_locks view displays data from both the
    regular lock manager and the predicate lock manager, which are
    separate systems; in addition, the regular lock manager subdivides its
-   locks into regular and fast-path locks.
+   locks into regular and fast-pathfirstterm> locks.
    This data is not guaranteed to be entirely consistent.
    When the view is queried,
-   data on fast-path locks (with fastpath> = true>)
+   data on fast-path locks (with fastpathstructfield> = true>)
    is gathered from each backend one at a time, without freezing the state of
    the entire lock manager, so it is possible for locks to be taken or
    released while information is gathered.  Note, however, that these locks are
@@ -9218,7 +9218,7 @@ SELECT * FROM pg_locks pl LEFT JOIN pg_prepared_xacts ppx
   
 
   
-   <structname>pg_matviews</> Columns
+   <structname>pg_matviews</<span class="marked">structname</span>> Columns
 
    
     
@@ -9291,7 +9291,7 @@ SELECT * FROM pg_locks pl LEFT JOIN pg_prepared_xacts ppx
   
 
   
-   <structname>pg_policies</> Columns
+   <structname>pg_policies</<span class="marked">structname</span>> Columns
 
    
     
@@ -9381,7 +9381,7 @@ SELECT * FROM pg_locks pl LEFT JOIN pg_prepared_xacts ppx
   
 
   
-   <structname>pg_prepared_statements</> Columns
+   <structname>pg_prepared_statements</<span class="marked">structname</span>> Columns
 
    
     
@@ -9467,7 +9467,7 @@ SELECT * FROM pg_locks pl LEFT JOIN pg_prepared_xacts ppx
   
 
   
-   <structname>pg_prepared_xacts</> Columns
+   <structname>pg_prepared_xacts</<span class="marked">structname</span>> Columns
 
    
     
@@ -9706,7 +9706,7 @@ SELECT * FROM pg_locks pl LEFT JOIN pg_prepared_xacts ppx
       slot_type
       text
       
-      The slot type - physical> or logical>
+      The slot type - physicalliteral> or logical>
      
 
      
@@ -9787,7 +9787,7 @@ SELECT * FROM pg_locks pl LEFT JOIN pg_prepared_xacts ppx
       
       The address (LSN) up to which the logical
       slot's consumer has confirmed receiving data. Data older than this is
-      not available anymore. NULL for physical slots.
+      not available anymore. NULLliteral> for physical slots.
       
      
 
@@ -9817,7 +9817,7 @@ SELECT * FROM pg_locks pl LEFT JOIN pg_prepared_xacts ppx
   
 
   
-   <structname>pg_roles</> Columns
+   <structname>pg_roles</<span class="marked">structname</span>> Columns
 
    
     
@@ -9900,7 +9900,7 @@ SELECT * FROM pg_locks pl LEFT JOIN pg_prepared_xacts ppx
       rolpassword
       text
       
-      Not the password (always reads as ********)
+      Not the password (always reads as ********literal>)
      
 
      
@@ -9953,7 +9953,7 @@ SELECT * FROM pg_locks pl LEFT JOIN pg_prepared_xacts ppx
   
 
   
-   <structname>pg_rules</> Columns
+   <structname>pg_rules</<span class="marked">structname</span>> Columns
 
    
     
@@ -9994,9 +9994,9 @@ SELECT * FROM pg_locks pl LEFT JOIN pg_prepared_xacts ppx
   
 
   
-   The pg_rules> view excludes the ON SELECT> rules
+   The pg_rulesstructname> view excludes the ON SELECT> rules
    of views and materialized views; those can be seen in
-   pg_views> and pg_matviews>.
+   pg_viewsstructname> and pg_matviews>.
   
 
  
@@ -10011,11 +10011,11 @@ SELECT * FROM pg_locks pl LEFT JOIN pg_prepared_xacts ppx
   
    The view pg_seclabels provides information about
    security labels.  It as an easier-to-query version of the
-   pg_seclabel>> catalog.
+   pg_seclabelstructname>> catalog.
   
 
   
-   <structname>pg_seclabels</> Columns
+   <structname>pg_seclabels</<span class="marked">structname</span>> Columns
 
    
     
@@ -10045,7 +10045,7 @@ SELECT * FROM pg_locks pl LEFT JOIN pg_prepared_xacts ppx
       
       
        For a security label on a table column, this is the column number (the
-       objoid> and classoid> refer to
+       objoidstructfield> and classoid> refer to
        the table itself).  For all other object types, this column is
        zero.
       
@@ -10105,7 +10105,7 @@ SELECT * FROM pg_locks pl LEFT JOIN pg_prepared_xacts ppx
   
 
   
-   <structname>pg_sequences</> Columns
+   <structname>pg_sequences</<span class="marked">structname</span>> Columns
 
    
     
@@ -10206,12 +10206,12 @@ SELECT * FROM pg_locks pl LEFT JOIN pg_prepared_xacts ppx
    interface to the 
    and  commands.
    It also provides access to some facts about each parameter that are
-   not directly available from SHOW, such as minimum and
+   not directly available from SHOWcommand>, such as minimum and
    maximum values.
   
 
   
-   <structname>pg_settings</> Columns
+   <structname>pg_settings</<span class="marked">structname</span>> Columns
 
    
     
@@ -10260,8 +10260,8 @@ SELECT * FROM pg_locks pl LEFT JOIN pg_prepared_xacts ppx
      
       vartype
       text
-      Parameter type (bool>, enum>,
-       integer>, real, or string>)
+      Parameter type (boolliteral>, enum>,
+       integerliteral>, real, or string>)
       
      
      
@@ -10306,7 +10306,7 @@ SELECT * FROM pg_locks pl LEFT JOIN pg_prepared_xacts ppx
       values set from sources other than configuration files, or when
       examined by a user who is neither a superuser or a member of
       pg_read_all_settings); helpful when using
-      include directives in configuration files
+      includeliteral> directives in configuration files
      
      
       sourceline
@@ -10384,7 +10384,7 @@ SELECT * FROM pg_locks pl LEFT JOIN pg_prepared_xacts ppx
       Changes to these settings can be made in
       postgresql.conf without restarting the server.
       They can also be set for a particular session in the connection request
-      packet (for example, via libpq>'s PGOPTIONS>
+      packet (for example, via libpqapplication>'s PGOPTIONS>
       environment variable), but only if the connecting user is a superuser.
       However, these settings never change in a session after it is started.
       If you change them in postgresql.conf, send a
@@ -10402,7 +10402,7 @@ SELECT * FROM pg_locks pl LEFT JOIN pg_prepared_xacts ppx
       Changes to these settings can be made in
       postgresql.conf without restarting the server.
       They can also be set for a particular session in the connection request
-      packet (for example, via libpq>'s PGOPTIONS>
+      packet (for example, via libpqapplication>'s PGOPTIONS>
       environment variable); any user can make such a change for their session.
       However, these settings never change in a session after it is started.
       If you change them in postgresql.conf, send a
@@ -10418,10 +10418,10 @@ SELECT * FROM pg_locks pl LEFT JOIN pg_prepared_xacts ppx
     
      
       These settings can be set from postgresql.conf,
-      or within a session via the SET command; but only superusers
-      can change them via SET.  Changes in
+      or within a session via the SETcommand> command; but only superusers
+      can change them via SETcommand>.  Changes in
       postgresql.conf will affect existing sessions
-      only if no session-local value has been established with SET.
+      only if no session-local value has been established with SETcommand>.
      
     
    
@@ -10431,10 +10431,10 @@ SELECT * FROM pg_locks pl LEFT JOIN pg_prepared_xacts ppx
     
      
       These settings can be set from postgresql.conf,
-      or within a session via the SET command.  Any user is
+      or within a session via the SETcommand> command.  Any user is
       allowed to change their session-local value.  Changes in
       postgresql.conf will affect existing sessions
-      only if no session-local value has been established with SET.
+      only if no session-local value has been established with SETcommand>.
      
     
    
@@ -10473,7 +10473,7 @@ SELECT * FROM pg_locks pl LEFT JOIN pg_prepared_xacts ppx
    compatibility: it emulates a catalog that existed in
    PostgreSQL before version 8.1.
    It shows properties of all roles that are marked as
-   rolcanlogin in
+   rolcanloginstructfield> in
    pg_authid.
   
 
@@ -10486,7 +10486,7 @@ SELECT * FROM pg_locks pl LEFT JOIN pg_prepared_xacts ppx
   
 
   
-   <structname>pg_shadow</> Columns
+   <structname>pg_shadow</<span class="marked">structname</span>> Columns
 
    
     
@@ -10600,7 +10600,7 @@ SELECT * FROM pg_locks pl LEFT JOIN pg_prepared_xacts ppx
   
 
   
-   <structname>pg_stats</> Columns
+   <structname>pg_stats</<span class="marked">structname</span>> Columns
 
    
     
@@ -10663,7 +10663,7 @@ SELECT * FROM pg_locks pl LEFT JOIN pg_prepared_xacts ppx
        If greater than zero, the estimated number of distinct values in the
        column.  If less than zero, the negative of the number of distinct
        values divided by the number of rows.  (The negated form is used when
-       ANALYZE believes that the number of distinct values is
+       ANALYZEcommand> believes that the number of distinct values is
        likely to increase as the table grows; the positive form is used when
        the column seems to have a fixed number of possible values.)  For
        example, -1 indicates a unique column in which the number of distinct
@@ -10699,10 +10699,10 @@ SELECT * FROM pg_locks pl LEFT JOIN pg_prepared_xacts ppx
       
        A list of values that divide the column's values into groups of
        approximately equal population.  The values in
-       most_common_vals, if present, are omitted from this
+       most_common_valsstructfield>, if present, are omitted from this
        histogram calculation.  (This column is null if the column data type
-       does not have a < operator or if the
-       most_common_vals list accounts for the entire
+       does not have a <literal> operator or if the
+       most_common_valsstructfield> list accounts for the entire
        population.)
       
      
@@ -10717,7 +10717,7 @@ SELECT * FROM pg_locks pl LEFT JOIN pg_prepared_xacts ppx
        When the value is near -1 or +1, an index scan on the column will
        be estimated to be cheaper than when it is near zero, due to reduction
        of random access to the disk.  (This column is null if the column data
-       type does not have a < operator.)
+       type does not have a <literal> operator.)
       
      
 
@@ -10761,7 +10761,7 @@ SELECT * FROM pg_locks pl LEFT JOIN pg_prepared_xacts ppx
 
   
    The maximum number of entries in the array fields can be controlled on a
-   column-by-column basis using the ALTER TABLE SET STATISTICS
+   column-by-column basis using the ALTER TABLE SET STATISTICScommand>
    command, or globally by setting the
     run-time parameter.
   
@@ -10781,7 +10781,7 @@ SELECT * FROM pg_locks pl LEFT JOIN pg_prepared_xacts ppx
   
 
   
-   <structname>pg_tables</> Columns
+   <structname>pg_tables</<span class="marked">structname</span>> Columns
 
    
     
@@ -10862,7 +10862,7 @@ SELECT * FROM pg_locks pl LEFT JOIN pg_prepared_xacts ppx
   
 
   
-   <structname>pg_timezone_abbrevs</> Columns
+   <structname>pg_timezone_abbrevs</<span class="marked">structname</span>> Columns
 
    
     
@@ -10910,7 +10910,7 @@ SELECT * FROM pg_locks pl LEFT JOIN pg_prepared_xacts ppx
 
   
    The view pg_timezone_names provides a list
-   of time zone names that are recognized by SET TIMEZONE,
+   of time zone names that are recognized by SET TIMEZONEcommand>,
    along with their associated abbreviations, UTC offsets,
    and daylight-savings status.  (Technically,
    PostgreSQL does not use UTC because leap
@@ -10919,11 +10919,11 @@ SELECT * FROM pg_locks pl LEFT JOIN pg_prepared_xacts ppx
    linkend="view-pg-timezone-abbrevs">pg_timezone_abbrevs, many of these names imply a set of daylight-savings transition
    date rules.  Therefore, the associated information changes across local DST
    boundaries.  The displayed information is computed based on the current
-   value of CURRENT_TIMESTAMP.
+   value of CURRENT_TIMESTAMPfunction>.
   
 
   
-   <structname>pg_timezone_names</> Columns
+   <structname>pg_timezone_names</<span class="marked">structname</span>> Columns
 
    
     
@@ -10976,7 +10976,7 @@ SELECT * FROM pg_locks pl LEFT JOIN pg_prepared_xacts ppx
   
 
   
-   <structname>pg_user</> Columns
+   <structname>pg_user</<span class="marked">structname</span>> Columns
 
    
     
@@ -11032,7 +11032,7 @@ SELECT * FROM pg_locks pl LEFT JOIN pg_prepared_xacts ppx
      
       passwd
       text
-      Not the password (always reads as ********)
+      Not the password (always reads as ********literal>)
      
 
      
@@ -11069,7 +11069,7 @@ SELECT * FROM pg_locks pl LEFT JOIN pg_prepared_xacts ppx
   
 
   
-   <structname>pg_user_mappings</> Columns
+   <structname>pg_user_mappings</<span class="marked">structname</span>> Columns
 
    
     
@@ -11126,7 +11126,7 @@ SELECT * FROM pg_locks pl LEFT JOIN pg_prepared_xacts ppx
       text[]
       
       
-       User mapping specific options, as keyword=value strings
+       User mapping specific options, as keyword=valuequote> strings
       
      
     
@@ -11141,12 +11141,12 @@ SELECT * FROM pg_locks pl LEFT JOIN pg_prepared_xacts ppx
     
      
       current user is the user being mapped, and owns the server or
-      holds USAGE privilege on it
+      holds USAGEliteral> privilege on it
      
     
     
      
-      current user is the server owner and mapping is for PUBLIC
+      current user is the server owner and mapping is for PUBLICliteral>
      
     
     
@@ -11173,7 +11173,7 @@ SELECT * FROM pg_locks pl LEFT JOIN pg_prepared_xacts ppx
   
 
   
-   <structname>pg_views</> Columns
+   <structname>pg_views</<span class="marked">structname</span>> Columns
 
    
     
index 63f7de5b43800b8564a89ca27b7836aaf422c0cf..3874a3f1ea8d89640a9036ac07f54be2250c6944 100644 (file)
  
   Locale Support
 
-  locale>>
+  localeprimary>>
 
   
-   Locale support refers to an application respecting
+   Localefirstterm> support refers to an application respecting
    cultural preferences regarding alphabets, sorting, number
-   formatting, etc.  PostgreSQL uses the standard ISO
+   formatting, etc.  PostgreSQLproductname> uses the standard ISO
    C and POSIX locale facilities provided by the server operating
    system.  For additional information refer to the documentation of your
    system.
@@ -67,14 +67,14 @@ initdb --locale=sv_SE
 
    
     This example for Unix systems sets the locale to Swedish
-    (sv) as spoken
-    in Sweden (SE).  Other possibilities might include
-    en_US> (U.S. English) and fr_CA> (French
+    (svliteral>) as spoken
+    in Sweden (SEliteral>).  Other possibilities might include
+    en_USliteral> (U.S. English) and fr_CA> (French
     Canadian).  If more than one character set can be used for a
     locale then the specifications can take the form
-    language_territory.codeset.  For example,
-    fr_BE.UTF-8 represents the French language (fr) as
-    spoken in Belgium (BE), with a UTF-8 character set
+    language_territory.codesetreplaceable>.  For example,
+    fr_BE.UTF-8literal> represents the French language (fr) as
+    spoken in Belgium (BE), with a UTF-8acronym> character set
     encoding.
    
 
@@ -82,9 +82,9 @@ initdb --locale=sv_SE
     What locales are available on your
     system under what names depends on what was provided by the operating
     system vendor and what was installed.  On most Unix systems, the command
-    locale -a will provide a list of available locales.
-    Windows uses more verbose locale names, such as German_Germany
-    or Swedish_Sweden.1252, but the principles are the same.
+    locale -aliteral> will provide a list of available locales.
+    Windows uses more verbose locale names, such as German_Germanyliteral>
+    or Swedish_Sweden.1252literal>, but the principles are the same.
    
 
    
@@ -97,28 +97,28 @@ initdb --locale=sv_SE
      
       
        
-        LC_COLLATE>>
-        String sort order
+        LC_COLLATEenvar>>
+        String sort orderentry>
        
        
-        LC_CTYPE>>
-        Character classification (What is a letter? Its upper-case equivalent?)
+        LC_CTYPEenvar>>
+        Character classification (What is a letter? Its upper-case equivalent?)entry>
        
        
-        LC_MESSAGES>>
-        Language of messages
+        LC_MESSAGESenvar>>
+        Language of messagesentry>
        
        
-        LC_MONETARY>>
-        Formatting of currency amounts
+        LC_MONETARYenvar>>
+        Formatting of currency amountsentry>
        
        
-        LC_NUMERIC>>
-        Formatting of numbers
+        LC_NUMERICenvar>>
+        Formatting of numbersentry>
        
        
-        LC_TIME>>
-        Formatting of dates and times
+        LC_TIMEenvar>>
+        Formatting of dates and timesentry>
        
       
      
@@ -133,8 +133,8 @@ initdb --locale=sv_SE
 
    
     If you want the system to behave as if it had no locale support,
-    use the special locale name C, or equivalently
-    POSIX.
+    use the special locale name Cliteral>, or equivalently
+    POSIXliteral>.
    
 
    
@@ -192,14 +192,14 @@ initdb --locale=sv_SE
      settings for the purpose of setting the language of messages.  If
      in doubt, please refer to the documentation of your operating
      system, in particular the documentation about
-     gettext.
+     gettextapplication>.
     
    
 
    
     To enable messages to be translated to the user's preferred language,
     NLS must have been selected at build time
-    (configure --enable-nls).  All other locale support is
+    (configure --enable-nlsliteral>).  All other locale support is
     built in automatically.
    
   
@@ -213,63 +213,63 @@ initdb --locale=sv_SE
     
      
       
-       Sort order in queries using ORDER BY or the standard
+       Sort order in queries using ORDER BYliteral> or the standard
        comparison operators on textual data
-       ORDER BY>and locales>
+       ORDER BYprimary>and locales>
       
      
 
      
       
-       The upper>, lower, and initcap>
+       The upperfunction>, lower, and initcap>
        functions
-       upper>and locales>
-       lower>and locales>
+       upperprimary>and locales>
+       lowerprimary>and locales>
       
      
 
      
       
-       Pattern matching operators (LIKE>, SIMILAR TO>,
+       Pattern matching operators (LIKEliteral>, SIMILAR TO>,
        and POSIX-style regular expressions); locales affect both case
        insensitive matching and the classification of characters by
        character-class regular expressions
-       LIKE>and locales>
-       regular expressions>and locales>
+       LIKEprimary>and locales>
+       regular expressionsprimary>and locales>
       
      
 
      
       
-       The to_char family of functions
-       to_char>and locales>
+       The to_charfunction> family of functions
+       to_charprimary>and locales>
       
      
 
      
       
-       The ability to use indexes with LIKE clauses
+       The ability to use indexes with LIKEliteral> clauses
       
      
     
    
 
    
-    The drawback of using locales other than C or
-    POSIX> in PostgreSQL> is its performance
+    The drawback of using locales other than Cliteral> or
+    POSIXliteral> in PostgreSQL> is its performance
     impact. It slows character handling and prevents ordinary indexes
-    from being used by LIKE. For this reason use locales
+    from being used by LIKEliteral>. For this reason use locales
     only if you actually need them.
    
 
    
-    As a workaround to allow PostgreSQL to use indexes
-    with LIKE clauses under a non-C locale, several custom
+    As a workaround to allow PostgreSQLproductname> to use indexes
+    with LIKEliteral> clauses under a non-C locale, several custom
     operator classes exist. These allow the creation of an index that
     performs a strict character-by-character comparison, ignoring
     locale comparison rules. Refer to 
     for more information.  Another approach is to create indexes using
-    the C collation, as discussed in
+    the Cliteral> collation, as discussed in
     .
    
   
@@ -286,20 +286,20 @@ initdb --locale=sv_SE
    
 
    
-    Check that PostgreSQL is actually using the locale
-    that you think it is.  The LC_COLLATE> and LC_CTYPE>
+    Check that PostgreSQLproductname> is actually using the locale
+    that you think it is.  The LC_COLLATEenvar> and LC_CTYPE>
     settings are determined when a database is created, and cannot be
     changed except by creating a new database.  Other locale
-    settings including LC_MESSAGES> and LC_MONETARY>
+    settings including LC_MESSAGESenvar> and LC_MONETARY>
     are initially determined by the environment the server is started
     in, but can be changed on-the-fly.  You can check the active locale
-    settings using the SHOW command.
+    settings using the SHOWcommand> command.
    
 
    
-    The directory src/test/locale in the source
+    The directory src/test/localefilename> in the source
     distribution contains a test suite for
-    PostgreSQL's locale support.
+    PostgreSQLproductname>'s locale support.
    
 
    
@@ -313,7 +313,7 @@ initdb --locale=sv_SE
    
     Maintaining catalogs of message translations requires the on-going
     efforts of many volunteers that want to see
-    PostgreSQL speak their preferred language well.
+    PostgreSQLproductname> speak their preferred language well.
     If messages in your language are currently not available or not fully
     translated, your assistance would be appreciated.  If you want to
     help, refer to  or write to the developers'
@@ -326,7 +326,7 @@ initdb --locale=sv_SE
  
   Collation Support
 
-  collation>>
+  collationprimary>>
 
   
    The collation feature allows specifying the sort order and character
@@ -370,9 +370,9 @@ initdb --locale=sv_SE
     function or operator call is derived from the arguments, as described
     below.  In addition to comparison operators, collations are taken into
     account by functions that convert between lower and upper case
-    letters, such as lower>, upper>, and
-    initcap; by pattern matching operators; and by
-    to_char and related functions.
+    letters, such as lowerfunction>, upper>, and
+    initcapfunction>; by pattern matching operators; and by
+    to_charfunction> and related functions.
    
 
    
@@ -452,7 +452,7 @@ SELECT a < ('foo' COLLATE "fr_FR") FROM test1;
 SELECT a < b FROM test1;
 
     the parser cannot determine which collation to apply, since the
-    a> and b> columns have conflicting
+    astructfield> and b> columns have conflicting
     implicit collations.  Since the < operator
     does need to know which collation to use, this will result in an
     error.  The error can be resolved by attaching an explicit collation
@@ -468,7 +468,7 @@ SELECT a COLLATE "de_DE" < b FROM test1;
 
 SELECT a || b FROM test1;
 
-    does not result in an error, because the || operator
+    does not result in an error, because the ||literal> operator
     does not care about collations: its result is the same regardless
     of the collation.
    
@@ -486,8 +486,8 @@ SELECT * FROM test1 ORDER BY a || 'foo';
 
 SELECT * FROM test1 ORDER BY a || b;
 
-    results in an error, because even though the || operator
-    doesn't need to know a collation, the ORDER BY clause does.
+    results in an error, because even though the ||literal> operator
+    doesn't need to know a collation, the ORDER BYliteral> clause does.
     As before, the conflict can be resolved with an explicit collation
     specifier:
 
@@ -508,7 +508,7 @@ SELECT * FROM test1 ORDER BY a || b COLLATE "fr_FR";
     operating system C library.  These are the locales that most tools
     provided by the operating system use.  Another provider
     is icu, which uses the external
-    ICUICU>> library.  ICU locales can only be
+    ICUICUprimary>> library.  ICU locales can only be
     used if support for ICU was configured when PostgreSQL was built.
    
 
@@ -541,14 +541,14 @@ SELECT * FROM test1 ORDER BY a || b COLLATE "fr_FR";
     Standard Collations
 
    
-    On all platforms, the collations named default,
-    C>, and POSIX> are available.  Additional
+    On all platforms, the collations named defaultliteral>,
+    Cliteral>, and POSIX> are available.  Additional
     collations may be available depending on operating system support.
-    The default collation selects the LC_COLLATE
+    The defaultliteral> collation selects the LC_COLLATE
     and LC_CTYPE values specified at database creation time.
-    The C> and POSIX> collations both specify
-    traditional C behavior, in which only the ASCII letters
-    A> through Z>
+    The Cliteral> and POSIX> collations both specify
+    traditional Cquote> behavior, in which only the ASCII letters
+    Aliteral> through Z>
     are treated as letters, and sorting is done strictly by character
     code byte values.
    
@@ -565,7 +565,7 @@ SELECT * FROM test1 ORDER BY a || b COLLATE "fr_FR";
 
    
     If the operating system provides support for using multiple locales
-    within a single program (newlocale and related functions),
+    within a single program (newlocalefunction> and related functions),
     or if support for ICU is configured,
     then when a database cluster is initialized, initdb
     populates the system catalog pg_collation with
@@ -618,8 +618,8 @@ SELECT * FROM test1 ORDER BY a || b COLLATE "fr_FR";
     within a given database even though it would not be unique globally.
     Use of the stripped collation names is recommended, since it will
     make one less thing you need to change if you decide to change to
-    another database encoding.  Note however that the default,
-    C>, and POSIX> collations can be used regardless of
+    another database encoding.  Note however that the defaultliteral>,
+    Cliteral>, and POSIX> collations can be used regardless of
     the database encoding.
    
 
@@ -630,7 +630,7 @@ SELECT * FROM test1 ORDER BY a || b COLLATE "fr_FR";
 
 SELECT a COLLATE "C" < b COLLATE "POSIX" FROM test1;
 
-    will draw an error even though the C> and POSIX>
+    will draw an error even though the Cliteral> and POSIX>
     collations have identical behaviors.  Mixing stripped and non-stripped
     collation names is therefore not recommended.
    
@@ -691,7 +691,7 @@ SELECT a COLLATE "C" < b COLLATE "POSIX" FROM test1;
     database encoding is one of these, ICU collation entries
     in pg_collation are ignored.  Attempting to use one
     will draw an error along the lines of collation "de-x-icu" for
-    encoding "WIN874" does not exist.
+    encoding "WIN874" does not existquote>.
    
   
   
@@ -889,30 +889,30 @@ CREATE COLLATION french FROM "fr-x-icu";
  
   Character Set Support
 
-  character set>>
+  character setprimary>>
 
   
    The character set support in PostgreSQL
    allows you to store text in a variety of character sets (also called
    encodings), including
    single-byte character sets such as the ISO 8859 series and
-   multiple-byte character sets such as EUC (Extended Unix
+   multiple-byte character sets such as EUCacronym> (Extended Unix
    Code), UTF-8, and Mule internal code.  All supported character sets
    can be used transparently by clients, but a few are not supported
    for use within the server (that is, as a server-side encoding).
    The default character set is selected while
    initializing your PostgreSQL database
-   cluster using initdb.  It can be overridden when you
+   cluster using initdbcommand>.  It can be overridden when you
    create a database, so you can have multiple
    databases each with a different character set.
   
 
   
    An important restriction, however, is that each database's character set
-   must be compatible with the database's LC_CTYPE (character
-   classification) and LC_COLLATE (string sort order) locale
-   settings. For C or
-   POSIX locale, any character set is allowed, but for other
+   must be compatible with the database's LC_CTYPEenvar> (character
+   classification) and LC_COLLATEenvar> (string sort order) locale
+   settings. For Cliteral> or
+   POSIXliteral> locale, any character set is allowed, but for other
    libc-provided locales there is only one character set that will work
    correctly.
    (On Windows, however, UTF-8 encoding can be used with any locale.)
@@ -954,7 +954,7 @@ CREATE COLLATION french FROM "fr-x-icu";
          No
          No
          1-2
-         WIN950>, Windows950>
+         WIN950literal>, Windows950>
         
         
          EUC_CN
@@ -1017,11 +1017,11 @@ CREATE COLLATION french FROM "fr-x-icu";
          No
          No
          1-2
-         WIN936>, Windows936>
+         WIN936literal>, Windows936>
         
         
          ISO_8859_5
-         ISO 8859-5, ECMA 113
+         ISO 8859-5, ECMAacronym> 113
          Latin/Cyrillic
          Yes
          Yes
@@ -1030,7 +1030,7 @@ CREATE COLLATION french FROM "fr-x-icu";
         
         
          ISO_8859_6
-         ISO 8859-6, ECMA 114
+         ISO 8859-6, ECMAacronym> 114
          Latin/Arabic
          Yes
          Yes
@@ -1039,7 +1039,7 @@ CREATE COLLATION french FROM "fr-x-icu";
         
         
          ISO_8859_7
-         ISO 8859-7, ECMA 118
+         ISO 8859-7, ECMAacronym> 118
          Latin/Greek
          Yes
          Yes
@@ -1048,7 +1048,7 @@ CREATE COLLATION french FROM "fr-x-icu";
         
         
          ISO_8859_8
-         ISO 8859-8, ECMA 121
+         ISO 8859-8, ECMAacronym> 121
          Latin/Hebrew
          Yes
          Yes
@@ -1057,7 +1057,7 @@ CREATE COLLATION french FROM "fr-x-icu";
         
         
          JOHAB
-         JOHAB
+         JOHABacronym>
          Korean (Hangul)
          No
          No
@@ -1071,7 +1071,7 @@ CREATE COLLATION french FROM "fr-x-icu";
          Yes
          Yes
          1
-         KOI8
+         KOI8literal>
         
         
          KOI8U
@@ -1084,57 +1084,57 @@ CREATE COLLATION french FROM "fr-x-icu";
         
         
          LATIN1
-         ISO 8859-1, ECMA 94
+         ISO 8859-1, ECMAacronym> 94
          Western European
          Yes
          Yes
          1
-         ISO88591
+         ISO88591literal>
         
         
          LATIN2
-         ISO 8859-2, ECMA 94
+         ISO 8859-2, ECMAacronym> 94
          Central European
          Yes
          Yes
          1
-         ISO88592
+         ISO88592literal>
         
         
          LATIN3
-         ISO 8859-3, ECMA 94
+         ISO 8859-3, ECMAacronym> 94
          South European
          Yes
          Yes
          1
-         ISO88593
+         ISO88593literal>
         
         
          LATIN4
-         ISO 8859-4, ECMA 94
+         ISO 8859-4, ECMAacronym> 94
          North European
          Yes
          Yes
          1
-         ISO88594
+         ISO88594literal>
         
         
          LATIN5
-         ISO 8859-9, ECMA 128
+         ISO 8859-9, ECMAacronym> 128
          Turkish
          Yes
          Yes
          1
-         ISO88599
+         ISO88599literal>
         
         
          LATIN6
-         ISO 8859-10, ECMA 144
+         ISO 8859-10, ECMAacronym> 144
          Nordic
          Yes
          Yes
          1
-         ISO885910
+         ISO885910literal>
         
         
          LATIN7
@@ -1143,7 +1143,7 @@ CREATE COLLATION french FROM "fr-x-icu";
          Yes
          Yes
          1
-         ISO885913
+         ISO885913literal>
         
         
          LATIN8
@@ -1152,7 +1152,7 @@ CREATE COLLATION french FROM "fr-x-icu";
          Yes
          Yes
          1
-         ISO885914
+         ISO885914literal>
         
         
          LATIN9
@@ -1161,16 +1161,16 @@ CREATE COLLATION french FROM "fr-x-icu";
          Yes
          Yes
          1
-         ISO885915
+         ISO885915literal>
         
         
          LATIN10
-         ISO 8859-16, ASRO SR 14111
+         ISO 8859-16, ASROacronym> SR 14111
          Romanian
          Yes
          No
          1
-         ISO885916
+         ISO885916literal>
         
         
          MULE_INTERNAL
@@ -1188,7 +1188,7 @@ CREATE COLLATION french FROM "fr-x-icu";
          No
          No
          1-2
-         Mskanji>, ShiftJIS, WIN932, Windows932>
+         Mskanjiliteral>, ShiftJISWIN932Windows932>
         
         
          SHIFT_JIS_2004
@@ -1202,7 +1202,7 @@ CREATE COLLATION french FROM "fr-x-icu";
         
          SQL_ASCII
          unspecified (see text)
-         any
+         anyemphasis>
          Yes
          No
          1
@@ -1215,16 +1215,16 @@ CREATE COLLATION french FROM "fr-x-icu";
          No
          No
          1-2
-         WIN949>, Windows949>
+         WIN949literal>, Windows949>
         
         
          UTF8
          Unicode, 8-bit
-         all
+         allemphasis>
          Yes
          Yes
          1-4
-         Unicode
+         Unicodeliteral>
         
         
          WIN866
@@ -1233,7 +1233,7 @@ CREATE COLLATION french FROM "fr-x-icu";
          Yes
          Yes
          1
-         ALT
+         ALTliteral>
         
         
          WIN874
@@ -1260,7 +1260,7 @@ CREATE COLLATION french FROM "fr-x-icu";
          Yes
          Yes
          1
-         WIN
+         WINliteral>
         
         
          WIN1252
@@ -1323,30 +1323,30 @@ CREATE COLLATION french FROM "fr-x-icu";
          Yes
          Yes
          1
-         ABC>, TCVN, TCVN5712, VSCII>
+         ABCliteral>, TCVNTCVN5712VSCII>
         
        
       
      
 
      
-      Not all client APIs support all the listed character sets. For example, the
-      PostgreSQL
-      JDBC driver does not support MULE_INTERNAL>, LATIN6>,
-      LATIN8>, and LATIN10>.
+      Not all client APIacronym>s support all the listed character sets. For example, the
+      PostgreSQLproductname>
+      JDBC driver does not support MULE_INTERNALliteral>, LATIN6>,
+      LATIN8literal>, and LATIN10>.
      
 
      
-      The SQL_ASCII setting behaves considerably differently
+      The SQL_ASCIIliteral> setting behaves considerably differently
       from the other settings.  When the server character set is
-      SQL_ASCII, the server interprets byte values 0-127
+      SQL_ASCIIliteral>, the server interprets byte values 0-127
       according to the ASCII standard, while byte values 128-255 are taken
       as uninterpreted characters.  No encoding conversion will be done when
-      the setting is SQL_ASCII.  Thus, this setting is not so
+      the setting is SQL_ASCIIliteral>.  Thus, this setting is not so
       much a declaration that a specific encoding is in use, as a declaration
       of ignorance about the encoding.  In most cases, if you are
       working with any non-ASCII data, it is unwise to use the
-      SQL_ASCII setting because
+      SQL_ASCIIliteral> setting because
       PostgreSQL will be unable to help you by
       converting or validating non-ASCII characters.
      
@@ -1356,7 +1356,7 @@ CREATE COLLATION french FROM "fr-x-icu";
     Setting the Character Set
 
     
-     initdb defines the default character set (encoding)
+     initdbcommand> defines the default character set (encoding)
      for a PostgreSQL cluster. For example,
 
 
@@ -1367,8 +1367,8 @@ initdb -E EUC_JP
      EUC_JP (Extended Unix Code for Japanese).  You
      can use  instead of
       if you prefer longer option strings.
-     If no  option is
-     given, initdb attempts to determine the appropriate
+     If no  option is
+     given, initdbcommand> attempts to determine the appropriate
      encoding to use based on the specified or default locale.
     
 
@@ -1388,7 +1388,7 @@ createdb -E EUC_KR -T template0 --lc-collate=ko_KR.euckr --lc-ctype=ko_KR.euckr
 CREATE DATABASE korean WITH ENCODING 'EUC_KR' LC_COLLATE='ko_KR.euckr' LC_CTYPE='ko_KR.euckr' TEMPLATE=template0;
 
 
-     Notice that the above commands specify copying the template0
+     Notice that the above commands specify copying the template0literal>
      database.  When copying any other database, the encoding and locale
      settings cannot be changed from those of the source database, because
      that might result in corrupt data.  For more information see
@@ -1420,7 +1420,7 @@ $ psql -l
     
      
       On most modern operating systems, PostgreSQL
-      can determine which character set is implied by the LC_CTYPE
+      can determine which character set is implied by the LC_CTYPEenvar>
       setting, and it will enforce that only the matching database encoding is
       used.  On older systems it is your responsibility to ensure that you use
       the encoding expected by the locale you have selected.  A mistake in
@@ -1430,9 +1430,9 @@ $ psql -l
 
      
       PostgreSQL will allow superusers to create
-      databases with SQL_ASCII encoding even when
-      LC_CTYPE> is not C or POSIX>.  As noted
-      above, SQL_ASCII does not enforce that the data stored in
+      databases with SQL_ASCIIliteral> encoding even when
+      LC_CTYPEenvar> is not C or POSIX>.  As noted
+      above, SQL_ASCIIliteral> does not enforce that the data stored in
       the database has any particular encoding, and so this choice poses risks
       of locale-dependent misbehavior.  Using this combination of settings is
       deprecated and may someday be forbidden altogether.
@@ -1447,7 +1447,7 @@ $ psql -l
      PostgreSQL supports automatic
      character set conversion between server and client for certain
      character set combinations. The conversion information is stored in the
-     pg_conversion> system catalog.  PostgreSQL>
+     pg_conversionliteral> system catalog.  PostgreSQL>
      comes with some predefined conversions, as shown in 
      linkend="multibyte-translation-table">. You can create a new
      conversion using the SQL command CREATE CONVERSION.
@@ -1763,7 +1763,7 @@ $ psql -l
 
       
        
-        libpq () has functions to control the client encoding.
+        libpqapplication> () has functions to control the client encoding.
        
       
 
@@ -1774,14 +1774,14 @@ $ psql -l
         Setting the client encoding can be done with this SQL command:
 
 
-SET CLIENT_ENCODING TO 'value';
+SET CLIENT_ENCODING TO 'valuereplaceable>';
 
 
         Also you can use the standard SQL syntax SET NAMES
         for this purpose:
 
 
-SET NAMES 'value';
+SET NAMES 'valuereplaceable>';
 
 
         To query the current client encoding:
@@ -1813,7 +1813,7 @@ RESET client_encoding;
       
        Using the configuration variable 
        linkend="guc-client-encoding">. If the
-       client_encoding variable is set, that client
+       client_encodingvarname> variable is set, that client
        encoding is automatically selected when a connection to the
        server is made.  (This can subsequently be overridden using any
        of the other methods mentioned above.)
@@ -1832,9 +1832,9 @@ RESET client_encoding;
     
 
     
-     If the client character set is defined as SQL_ASCII,
+     If the client character set is defined as SQL_ASCIIliteral>,
      encoding conversion is disabled, regardless of the server's character
-     set.  Just as for the server, use of SQL_ASCII is unwise
+     set.  Just as for the server, use of SQL_ASCIIliteral> is unwise
      unless you are working with all-ASCII data.
     
    
index 9b4c68f7d4775b10274d6f6219853d6e4b39ceb3..82251de852965b38337f2eafb5dacfd636baf659 100644 (file)
@@ -8,10 +8,10 @@
  
 
  
-  The citext module provides a case-insensitive
-  character string type, citext. Essentially, it internally calls
-  lower when comparing values. Otherwise, it behaves almost
-  exactly like text.
+  The citextfilename> module provides a case-insensitive
+  character string type, citexttype>. Essentially, it internally calls
+  lowerfunction> when comparing values. Otherwise, it behaves almost
+  exactly like texttype>.
  
 
  
@@ -19,7 +19,7 @@
 
   
    The standard approach to doing case-insensitive matches
-   in PostgreSQL> has been to use the lower>
+   in PostgreSQLproductname> has been to use the lower>
    function when comparing values, for example
 
 
@@ -35,19 +35,19 @@ SELECT * FROM tab WHERE lower(col) = LOWER(?);
     
      
       It makes your SQL statements verbose, and you always have to remember to
-      use lower on both the column and the query value.
+      use lowerfunction> on both the column and the query value.
      
     
     
      
       It won't use an index, unless you create a functional index using
-      lower.
+      lowerfunction>.
      
     
     
      
-      If you declare a column as UNIQUE or PRIMARY
-      KEY, the implicitly generated index is case-sensitive.  So it's
+      If you declare a column as UNIQUEliteral> or PRIMARY
+      KEYliteral>, the implicitly generated index is case-sensitive.  So it's
       useless for case-insensitive searches, and it won't enforce
       uniqueness case-insensitively.
      
@@ -55,13 +55,13 @@ SELECT * FROM tab WHERE lower(col) = LOWER(?);
    
 
    
-    The citext data type allows you to eliminate calls
-    to lower in SQL queries, and allows a primary key to
-    be case-insensitive. citext is locale-aware, just
-    like text, which means that the matching of upper case and
+    The citexttype> data type allows you to eliminate calls
+    to lowerfunction> in SQL queries, and allows a primary key to
+    be case-insensitive. citexttype> is locale-aware, just
+    like texttype>, which means that the matching of upper case and
     lower case characters is dependent on the rules of
-    the database's LC_CTYPE setting. Again, this behavior is
-    identical to the use of lower in queries. But because it's
+    the database's LC_CTYPEliteral> setting. Again, this behavior is
+    identical to the use of lowerfunction> in queries. But because it's
     done transparently by the data type, you don't have to remember to do
     anything special in your queries.
    
@@ -89,9 +89,9 @@ INSERT INTO users VALUES ( 'Bjørn',  md5(random()::text) );
 SELECT * FROM users WHERE nick = 'Larry';
 
 
-   The SELECT statement will return one tuple, even though
-   the nick> column was set to larry> and the query
-   was for Larry.
+   The SELECTcommand> statement will return one tuple, even though
+   the nickstructfield> column was set to larry> and the query
+   was for Larryliteral>.
   
  
 
@@ -99,82 +99,82 @@ SELECT * FROM users WHERE nick = 'Larry';
   String Comparison Behavior
 
   
-   citext performs comparisons by converting each string to lower
-   case (as though lower were called) and then comparing the
+   citexttype> performs comparisons by converting each string to lower
+   case (as though lowerfunction> were called) and then comparing the
    results normally.  Thus, for example, two strings are considered equal
-   if lower would produce identical results for them.
+   if lowerfunction> would produce identical results for them.
   
 
   
    In order to emulate a case-insensitive collation as closely as possible,
-   there are citext-specific versions of a number of string-processing
+   there are citexttype>-specific versions of a number of string-processing
    operators and functions.  So, for example, the regular expression
-   operators ~> and ~*> exhibit the same behavior when
-   applied to citext: they both match case-insensitively.
+   operators ~literal> and ~*> exhibit the same behavior when
+   applied to citexttype>: they both match case-insensitively.
    The same is true
-   for !~> and !~*>, as well as for the
-   LIKE> operators ~~ and ~~*>, and
-   !~~> and !~~*>. If you'd like to match
-   case-sensitively, you can cast the operator's arguments to text.
+   for !~literal> and !~*>, as well as for the
+   LIKEliteral> operators ~~ and ~~*>, and
+   !~~literal> and !~~*>. If you'd like to match
+   case-sensitively, you can cast the operator's arguments to texttype>.
   
 
   
    Similarly, all of the following functions perform matching
-   case-insensitively if their arguments are citext:
+   case-insensitively if their arguments are citexttype>:
   
 
   
    
     
-      regexp_match()
+      regexp_match()function>
     
    
    
     
-      regexp_matches()
+      regexp_matches()function>
     
    
    
     
-      regexp_replace()
+      regexp_replace()function>
     
    
    
     
-      regexp_split_to_array()
+      regexp_split_to_array()function>
     
    
    
     
-      regexp_split_to_table()
+      regexp_split_to_table()function>
     
    
    
     
-      replace()
+      replace()function>
     
    
    
     
-      split_part()
+      split_part()function>
     
    
    
     
-      strpos()
+      strpos()function>
     
    
    
     
-      translate()
+      translate()function>
     
    
   
 
   
    For the regexp functions, if you want to match case-sensitively, you can
-   specify the c flag to force a case-sensitive match.  Otherwise,
-   you must cast to text before using one of these functions if
+   specify the cquote> flag to force a case-sensitive match.  Otherwise,
+   you must cast to texttype> before using one of these functions if
    you want case-sensitive behavior.
   
 
@@ -186,13 +186,13 @@ SELECT * FROM users WHERE nick = 'Larry';
    
     
      
-      citext's case-folding behavior depends on
-      the LC_CTYPE setting of your database. How it compares
+      citexttype>'s case-folding behavior depends on
+      the LC_CTYPEliteral> setting of your database. How it compares
       values is therefore determined when the database is created.
       It is not truly
       case-insensitive in the terms defined by the Unicode standard.
       Effectively, what this means is that, as long as you're happy with your
-      collation, you should be happy with citext's comparisons. But
+      collation, you should be happy with citexttype>'s comparisons. But
       if you have data in different languages stored in your database, users
       of one language may find their query results are not as expected if the
       collation is for another language.
@@ -201,38 +201,38 @@ SELECT * FROM users WHERE nick = 'Larry';
 
     
      
-      As of PostgreSQL 9.1, you can attach a
-      COLLATE> specification to citext> columns or data
-      values.  Currently, citext operators will honor a non-default
-      COLLATE specification while comparing case-folded strings,
+      As of PostgreSQLproductname> 9.1, you can attach a
+      COLLATEliteral> specification to citext> columns or data
+      values.  Currently, citexttype> operators will honor a non-default
+      COLLATEliteral> specification while comparing case-folded strings,
       but the initial folding to lower case is always done according to the
-      database's LC_CTYPE setting (that is, as though
-      COLLATE "default" were given).  This may be changed in a
-      future release so that both steps follow the input COLLATE
+      database's LC_CTYPEliteral> setting (that is, as though
+      COLLATE "default"literal> were given).  This may be changed in a
+      future release so that both steps follow the input COLLATEliteral>
       specification.
      
     
 
     
      
-       citext> is not as efficient as text> because the
+       citexttype> is not as efficient as text> because the
        operator functions and the B-tree comparison functions must make copies
        of the data and convert it to lower case for comparisons. It is,
-       however, slightly more efficient than using lower to get
+       however, slightly more efficient than using lowerfunction> to get
        case-insensitive matching.
      
     
 
     
      
-      citext doesn't help much if you need data to compare
+      citexttype> doesn't help much if you need data to compare
       case-sensitively in some contexts and case-insensitively in other
-      contexts.  The standard answer is to use the text type and
-      manually use the lower function when you need to compare
+      contexts.  The standard answer is to use the texttype> type and
+      manually use the lowerfunction> function when you need to compare
       case-insensitively; this works all right if case-insensitive comparison
       is needed only infrequently.  If you need case-insensitive behavior most
       of the time and case-sensitive infrequently, consider storing the data
-      as citext> and explicitly casting the column to text>
+      as citexttype> and explicitly casting the column to text>
       when you want case-sensitive comparison.  In either situation, you will
       need two indexes if you want both types of searches to be fast.
     
@@ -240,9 +240,9 @@ SELECT * FROM users WHERE nick = 'Larry';
 
     
      
-      The schema containing the citext operators must be
-      in the current search_path> (typically public>);
-      if it is not, the normal case-sensitive text operators
+      The schema containing the citexttype> operators must be
+      in the current search_pathvarname> (typically public>);
+      if it is not, the normal case-sensitive texttype> operators
       will be invoked instead.
     
     
@@ -257,7 +257,7 @@ SELECT * FROM users WHERE nick = 'Larry';
   
 
   
-    Inspired by the original citext module by Donald Fraser.
+    Inspired by the original citexttype> module by Donald Fraser.
   
 
  
index 78c594bbbaa288a4c043536834f38325fd5784cd..722f3da81389b705ca44f555e3ca7db053b1052f 100644 (file)
@@ -21,9 +21,9 @@
   
    As explained in ,
    PostgreSQL actually does privilege
-   management in terms of roles.  In this chapter, we
-   consistently use database user to mean role with the
-   LOGIN privilege.
+   management in terms of rolesquote>.  In this chapter, we
+   consistently use database userfirstterm> to mean role with the
+   LOGINliteral> privilege.
   
  
 
@@ -66,7 +66,7 @@
    which traditionally is named
    pg_hba.conf and is stored in the database
    cluster's data directory.
-   (HBA stands for host-based authentication.) A default
+   (HBAacronym> stands for host-based authentication.) A default
    pg_hba.conf file is installed when the data
    directory is initialized by initdb.  It is
    possible to place the authentication configuration file elsewhere,
@@ -82,7 +82,7 @@
    up of a number of fields which are separated by spaces and/or tabs.
    Fields can contain white space if the field value is double-quoted.
    Quoting one of the keywords in a database, user, or address field (e.g.,
-   all> or replication>) makes the word lose its special
+   allliteral> or replication>) makes the word lose its special
    meaning, and just match a database, user, or host with that name.
   
 
@@ -92,8 +92,8 @@
    and the authentication method to be used for connections matching
    these parameters. The first record with a matching connection type,
    client address, requested database, and user name is used to perform
-   authentication. There is no fall-through or
-   backup: if one record is chosen and the authentication
+   authentication. There is no fall-throughquote> or
+   backupquote>: if one record is chosen and the authentication
    fails, subsequent records are not considered. If no record matches,
    access is denied.
   
@@ -138,7 +138,7 @@ hostnossl  database  user
        the server is started with an appropriate value for the
         configuration parameter,
        since the default behavior is to listen for TCP/IP connections
-       only on the local loopback address localhost.
+       only on the local loopback address localhostliteral>.
       
      
      
@@ -169,7 +169,7 @@ hostnossl  database  user
      hostnossl
      
       
-       This record type has the opposite behavior of hostssl;
+       This record type has the opposite behavior of hostsslliteral>;
        it only matches connection attempts made over
        TCP/IP that do not use SSL.
       
@@ -182,24 +182,24 @@ hostnossl  database  user
       
        Specifies which database name(s) this record matches.  The value
        all specifies that it matches all databases.
-       The value sameuser specifies that the record
+       The value sameuserliteral> specifies that the record
        matches if the requested database has the same name as the
-       requested user.  The value samerole specifies that
+       requested user.  The value sameroleliteral> specifies that
        the requested user must be a member of the role with the same
-       name as the requested database.  (samegroup is an
-       obsolete but still accepted spelling of samerole.)
+       name as the requested database.  (samegroupliteral> is an
+       obsolete but still accepted spelling of sameroleliteral>.)
        Superusers are not considered to be members of a role for the
-       purposes of samerole unless they are explicitly
+       purposes of sameroleliteral> unless they are explicitly
        members of the role, directly or indirectly, and not just by
        virtue of being a superuser.
-       The value replication specifies that the record
+       The value replicationliteral> specifies that the record
        matches if a physical replication connection is requested (note that
        replication connections do not specify any particular database).
        Otherwise, this is the name of
        a specific PostgreSQL database.
        Multiple database names can be supplied by separating them with
        commas.  A separate file containing database names can be specified by
-       preceding the file name with @.
+       preceding the file name with @literal>.
       
      
     
@@ -211,18 +211,18 @@ hostnossl  database  user
        Specifies which database user name(s) this record
        matches. The value all specifies that it
        matches all users.  Otherwise, this is either the name of a specific
-       database user, or a group name preceded by +.
+       database user, or a group name preceded by +literal>.
        (Recall that there is no real distinction between users and groups
-       in PostgreSQL>; a +> mark really means
+       in PostgreSQLproductname>; a +> mark really means
        match any of the roles that are directly or indirectly members
-       of this role>, while a name without a +> mark matches
+       of this rolequote>, while a name without a +> mark matches
        only that specific role.) For this purpose, a superuser is only
        considered to be a member of a role if they are explicitly a member
        of the role, directly or indirectly, and not just by virtue of
        being a superuser.
        Multiple user names can be supplied by separating them with commas.
        A separate file containing user names can be specified by preceding the
-       file name with @.
+       file name with @literal>.
       
      
     
@@ -239,7 +239,7 @@ hostnossl  database  user
       
        An IP address range is specified using standard numeric notation
        for the range's starting address, then a slash (/)
-       and a CIDR mask length.  The mask
+       and a CIDRacronym> mask length.  The mask
        length indicates the number of high-order bits of the client
        IP address that must match.  Bits to the right of this should
        be zero in the given IP address.
@@ -317,7 +317,7 @@ hostnossl  database  user
 
       
        This field only applies to host,
-       hostssl, and hostnossl records.
+       hostssl, and hostnosslliteral> records.
       
 
       
@@ -360,17 +360,17 @@ hostnossl  database  user
      
       
        These two fields can be used as an alternative to the
-       IP-address>/mask-length>
+       IP-addressreplaceable>/mask-length>
        notation.  Instead of
        specifying the mask length, the actual mask is specified in a
-       separate column. For example, 255.0.0.0 represents an IPv4
-       CIDR mask length of 8, and 255.255.255.255 represents a
+       separate column. For example, 255.0.0.0literal> represents an IPv4
+       CIDR mask length of 8, and 255.255.255.255literal> represents a
        CIDR mask length of 32.
       
 
       
        These fields only apply to host,
-       hostssl, and hostnossl records.
+       hostssl, and hostnosslliteral> records.
       
      
     
@@ -385,7 +385,7 @@ hostnossl  database  user
 
        
         
-         trust
+         trustliteral>
          
          
           Allow the connection unconditionally. This method
@@ -399,12 +399,12 @@ hostnossl  database  user
        
 
        
-        reject
+        rejectliteral>
         
          
           Reject the connection unconditionally. This is useful for
-          filtering out certain hosts from a group, for example a
-          reject line could block a specific host from connecting,
+          filtering outquote> certain hosts from a group, for example a
+          rejectliteral> line could block a specific host from connecting,
           while a later line allows the remaining hosts in a specific
           network to connect.
          
@@ -412,7 +412,7 @@ hostnossl  database  user
        
 
        
-        scram-sha-256
+        scram-sha-256literal>
         
          
           Perform SCRAM-SHA-256 authentication to verify the user's
@@ -422,7 +422,7 @@ hostnossl  database  user
        
 
        
-        md5
+        md5literal>
         
          
           Perform SCRAM-SHA-256 or MD5 authentication to verify the
@@ -433,7 +433,7 @@ hostnossl  database  user
        
 
        
-        password
+        passwordliteral>
         
          
           Require the client to supply an unencrypted password for
@@ -446,7 +446,7 @@ hostnossl  database  user
        
 
        
-        gss
+        gssliteral>
         
          
           Use GSSAPI to authenticate the user. This is only
@@ -457,7 +457,7 @@ hostnossl  database  user
        
 
        
-        sspi
+        sspiliteral>
         
          
           Use SSPI to authenticate the user. This is only
@@ -468,7 +468,7 @@ hostnossl  database  user
        
 
        
-        ident
+        identliteral>
         
          
           Obtain the operating system user name of the client
@@ -483,7 +483,7 @@ hostnossl  database  user
        
 
        
-        peer
+        peerliteral>
         
          
           Obtain the client's operating system user name from the operating
@@ -495,17 +495,17 @@ hostnossl  database  user
        
 
        
-        ldap
+        ldapliteral>
         
          
-          Authenticate using an LDAP server. See 
+          Authenticate using an LDAPacronym> server. See 
           linkend="auth-ldap"> for details.
          
         
        
 
        
-        radius
+        radiusliteral>
         
          
           Authenticate using a RADIUS server. See 
@@ -515,7 +515,7 @@ hostnossl  database  user
        
 
        
-        cert
+        certliteral>
         
          
           Authenticate using SSL client certificates. See
@@ -525,7 +525,7 @@ hostnossl  database  user
        
 
        
-        pam
+        pamliteral>
         
          
           Authenticate using the Pluggable Authentication Modules
@@ -536,7 +536,7 @@ hostnossl  database  user
        
 
        
-        bsd
+        bsdliteral>
         
          
           Authenticate using the BSD Authentication service provided by the
@@ -554,17 +554,17 @@ hostnossl  database  user
      auth-options
      
       
-       After the auth-method field, there can be field(s) of
-       the form name>=value> that
+       After the auth-methodreplaceable> field, there can be field(s) of
+       the form namereplaceable>=value> that
        specify options for the authentication method. Details about which
        options are available for which authentication methods appear below.
       
 
       
        In addition to the method-specific options listed below, there is one
-       method-independent authentication option clientcert, which
-       can be specified in any hostssl record.  When set
-       to 1, this option requires the client to present a valid
+       method-independent authentication option clientcertliteral>, which
+       can be specified in any hostsslliteral> record.  When set
+       to 1literal>, this option requires the client to present a valid
        (trusted) SSL certificate, in addition to the other requirements of the
        authentication method.
       
@@ -574,11 +574,11 @@ hostnossl  database  user
   
 
   
-   Files included by @ constructs are read as lists of names,
+   Files included by @literal> constructs are read as lists of names,
    which can be separated by either whitespace or commas.  Comments are
    introduced by #, just as in
-   pg_hba.conf, and nested @ constructs are
-   allowed.  Unless the file name following @ is an absolute
+   pg_hba.conf, and nested @literal> constructs are
+   allowed.  Unless the file name following @literal> is an absolute
    path, it is taken to be relative to the directory containing the
    referencing file.
   
@@ -589,10 +589,10 @@ hostnossl  database  user
    significant. Typically, earlier records will have tight connection
    match parameters and weaker authentication methods, while later
    records will have looser match parameters and stronger authentication
-   methods. For example, one might wish to use trust
+   methods. For example, one might wish to use trustliteral>
    authentication for local TCP/IP connections but require a password for
    remote TCP/IP connections. In this case a record specifying
-   trust authentication for connections from 127.0.0.1 would
+   trustliteral> authentication for connections from 127.0.0.1 would
    appear before a record specifying password authentication for a wider
    range of allowed client IP addresses.
   
@@ -603,7 +603,7 @@ hostnossl  database  user
    SIGHUPSIGHUP
    signal. If you edit the file on an
    active system, you will need to signal the postmaster
-   (using pg_ctl reload> or kill -HUP>) to make it
+   (using pg_ctl reloadliteral> or kill -HUP>) to make it
    re-read the file.
   
 
@@ -618,7 +618,7 @@ hostnossl  database  user
   
    The system view
    pg_hba_file_rules
-   can be helpful for pre-testing changes to the pg_hba.conf
+   can be helpful for pre-testing changes to the pg_hba.conffilename>
    file, or for diagnosing problems if loading of the file did not have the
    desired effects.  Rows in the view with
    non-null error fields indicate problems in the
@@ -629,9 +629,9 @@ hostnossl  database  user
    
     To connect to a particular database, a user must not only pass the
     pg_hba.conf checks, but must have the
-    CONNECT privilege for the database.  If you wish to
+    CONNECTliteral> privilege for the database.  If you wish to
     restrict which users can connect to which databases, it's usually
-    easier to control this by granting/revoking CONNECT privilege
+    easier to control this by granting/revoking CONNECTliteral> privilege
     than to put the rules in pg_hba.conf entries.
    
   
@@ -760,21 +760,21 @@ local   db1,db2,@demodbs  all                                   md5
 
   
    User name maps are defined in the ident map file, which by default is named
-   pg_ident.confpg_ident.conf
+   pg_ident.conffilename>pg_ident.conf
    and is stored in the
    cluster's data directory.  (It is possible to place the map file
    elsewhere, however; see the 
    configuration parameter.)
    The ident map file contains lines of the general form:
 
-map-namesystem-username database-username>
+map-namereplaceable> system-username database-username>
 
    Comments and whitespace are handled in the same way as in
-   pg_hba.conf.  The
-   map-name is an arbitrary name that will be used to
+   pg_hba.conffilename>.  The
+   map-namereplaceable> is an arbitrary name that will be used to
    refer to this mapping in pg_hba.conf. The other
    two fields specify an operating system user name and a matching
-   database user name. The same map-name can be
+   database user name. The same map-namereplaceable> can be
    used repeatedly to specify multiple user-mappings within a single map.
   
   
@@ -788,13 +788,13 @@ local   db1,db2,@demodbs  all                                   md5
    user has requested to connect as.
   
   
-   If the system-username> field starts with a slash (/>),
+   If the system-usernamereplaceable> field starts with a slash (/>),
    the remainder of the field is treated as a regular expression.
    (See  for details of
-   PostgreSQL's regular expression syntax.)  The regular
+   PostgreSQLproductname>'s regular expression syntax.)  The regular
    expression can include a single capture, or parenthesized subexpression,
-   which can then be referenced in the database-username
-   field as \1 (backslash-one).  This allows the mapping of
+   which can then be referenced in the database-usernamereplaceable>
+   field as \1literal> (backslash-one).  This allows the mapping of
    multiple user names in a single line, which is particularly useful for
    simple syntax substitutions.  For example, these entries
 
@@ -802,14 +802,14 @@ mymap   /^(.*)@mydomain\.com$      \1
 mymap   /^(.*)@otherdomain\.com$   guest
 
    will remove the domain part for users with system user names that end with
-   @mydomain.com, and allow any user whose system name ends with
-   @otherdomain.com> to log in as guest>.
+   @mydomain.comliteral>, and allow any user whose system name ends with
+   @otherdomain.comliteral> to log in as guest>.
   
 
   
    
     Keep in mind that by default, a regular expression can match just part of
-    a string.  It's usually wise to use ^> and $>, as
+    a string.  It's usually wise to use ^literal> and $>, as
     shown in the above example, to force the match to be to the entire
     system user name.
    
@@ -821,28 +821,28 @@ mymap   /^(.*)@otherdomain\.com$   guest
    SIGHUPSIGHUP
    signal. If you edit the file on an
    active system, you will need to signal the postmaster
-   (using pg_ctl reload> or kill -HUP>) to make it
+   (using pg_ctl reloadliteral> or kill -HUP>) to make it
    re-read the file.
   
 
   
    A pg_ident.conf file that could be used in
-   conjunction with the pg_hba.conf file in 
+   conjunction with the pg_hba.conffilename> file in 
    linkend="example-pg-hba.conf"> is shown in 
    linkend="example-pg-ident.conf">. In this example, anyone
    logged in to a machine on the 192.168 network that does not have the
-   operating system user name bryanh>, ann>, or
-   robert would not be granted access. Unix user
-   robert would only be allowed access when he tries to
-   connect as PostgreSQL> user bob>, not
-   as robert> or anyone else. ann> would
-   only be allowed to connect as ann. User
-   bryanh would be allowed to connect as either
-   bryanh> or as guest1>.
+   operating system user name bryanhliteral>, ann>, or
+   robertliteral> would not be granted access. Unix user
+   robertliteral> would only be allowed access when he tries to
+   connect as PostgreSQLproductname> user bob>, not
+   as robertliteral> or anyone else. ann> would
+   only be allowed to connect as annliteral>. User
+   bryanhliteral> would be allowed to connect as either
+   bryanhliteral> or as guest1>.
   
 
   
-   An Example <filename>pg_ident.conf</> File
+   An Example <filename>pg_ident.conf</<span class="marked">filename</span>> File
 
 # MAPNAME       SYSTEM-USERNAME         PG-USERNAME
 
@@ -866,21 +866,21 @@ omicron         bryanh                  guest1
    Trust Authentication
 
    
-    When trust authentication is specified,
+    When trustliteral> authentication is specified,
     PostgreSQL assumes that anyone who can
     connect to the server is authorized to access the database with
     whatever database user name they specify (even superuser names).
-    Of course, restrictions made in the database and
-    user columns still apply.
+    Of course, restrictions made in the databaseliteral> and
+    userliteral> columns still apply.
     This method should only be used when there is adequate
     operating-system-level protection on connections to the server.
    
 
    
-    trust authentication is appropriate and very
+    trustliteral> authentication is appropriate and very
     convenient for local connections on a single-user workstation.  It
-    is usually not appropriate by itself on a multiuser
-    machine.  However, you might be able to use trust even
+    is usually notemphasis> appropriate by itself on a multiuser
+    machine.  However, you might be able to use trustliteral> even
     on a multiuser machine, if you restrict access to the server's
     Unix-domain socket file using file-system permissions.  To do this, set the
     unix_socket_permissions (and possibly
@@ -895,17 +895,17 @@ omicron         bryanh                  guest1
     Setting file-system permissions only helps for Unix-socket connections.
     Local TCP/IP connections are not restricted by file-system permissions.
     Therefore, if you want to use file-system permissions for local security,
-    remove the host ... 127.0.0.1 ... line from
-    pg_hba.conf, or change it to a
-    non-trust authentication method.
+    remove the host ... 127.0.0.1 ...literal> line from
+    pg_hba.conffilename>, or change it to a
+    non-trustliteral> authentication method.
    
 
    
-    trust authentication is only suitable for TCP/IP connections
+    trustliteral> authentication is only suitable for TCP/IP connections
     if you trust every user on every machine that is allowed to connect
-    to the server by the pg_hba.conf lines that specify
-    trust>.  It is seldom reasonable to use trust>
-    for any TCP/IP connections other than those from localhost (127.0.0.1).
+    to the server by the pg_hba.conffilename> lines that specify
+    trustliteral>.  It is seldom reasonable to use trust>
+    for any TCP/IP connections other than those from localhostsystemitem> (127.0.0.1).
    
 
   
@@ -914,10 +914,10 @@ omicron         bryanh                  guest1
    Password Authentication
 
    
-    MD5
+    MD5primary>
    
    
-    SCRAM
+    SCRAMprimary>
    
    
     password
@@ -936,7 +936,7 @@ omicron         bryanh                  guest1
      scram-sha-256
      
       
-       The method scram-sha-256 performs SCRAM-SHA-256
+       The method scram-sha-256literal> performs SCRAM-SHA-256
        authentication, as described in
        RFC 7677.  It
        is a challenge-response scheme that prevents password sniffing on
@@ -955,7 +955,7 @@ omicron         bryanh                  guest1
      md5
      
       
-       The method md5 uses a custom less secure challenge-response
+       The method md5literal> uses a custom less secure challenge-response
        mechanism.  It prevents password sniffing and avoids storing passwords
        on the server in plain text but provides no protection if an attacker
        manages to steal the password hash from the server.  Also, the MD5 hash
@@ -982,10 +982,10 @@ omicron         bryanh                  guest1
      password
      
       
-       The method password sends the password in clear-text and is
-       therefore vulnerable to password sniffing attacks. It should
+       The method passwordliteral> sends the password in clear-text and is
+       therefore vulnerable to password sniffingquote> attacks. It should
        always be avoided if possible. If the connection is protected by SSL
-       encryption then password can be used safely, though.
+       encryption then passwordliteral> can be used safely, though.
        (Though SSL certificate authentication might be a better choice if one
        is depending on using SSL).
       
@@ -996,7 +996,7 @@ omicron         bryanh                  guest1
    
     PostgreSQL database passwords are
     separate from operating system user passwords. The password for
-    each database user is stored in the pg_authid system
+    each database user is stored in the pg_authidliteral> system
     catalog. Passwords can be managed with the SQL commands
      and
     ,
@@ -1060,7 +1060,7 @@ omicron         bryanh                  guest1
    
 
    
-    GSSAPI support has to be enabled when PostgreSQL is built;
+    GSSAPI support has to be enabled when PostgreSQLproductname> is built;
     see  for more information.
    
 
@@ -1068,13 +1068,13 @@ omicron         bryanh                  guest1
     When GSSAPI uses
     Kerberos, it uses a standard principal
     in the format
-    servicename>/hostname@realm>.
+    servicenamereplaceable>/hostname@realm>.
     The PostgreSQL server will accept any principal that is included in the keytab used by
     the server, but care needs to be taken to specify the correct principal details when
-    making the connection from the client using the krbsrvname connection parameter. (See
+    making the connection from the client using the krbsrvnameliteral> connection parameter. (See
     also .) The installation default can be
     changed from the default postgres at build time using
-    ./configure --with-krb-srvnam=>whatever>.
+    ./configure --with-krb-srvnam=literal>whatever>.
     In most environments,
     this parameter never needs to be changed.
     Some Kerberos implementations might require a different service name,
@@ -1082,31 +1082,31 @@ omicron         bryanh                  guest1
     to be in upper case (POSTGRES).
    
    
-    hostname is the fully qualified host name of the
+    hostnamereplaceable> is the fully qualified host name of the
     server machine. The service principal's realm is the preferred realm
     of the server machine.
    
 
    
-    Client principals can be mapped to different PostgreSQL
-    database user names with pg_ident.conf.  For example,
-    pgusername@realm> could be mapped to just pgusername>.
-    Alternatively, you can use the full username@realm principal as
-    the role name in PostgreSQL without any mapping.
+    Client principals can be mapped to different PostgreSQLproductname>
+    database user names with pg_ident.conffilename>.  For example,
+    pgusername@realmliteral> could be mapped to just pgusername>.
+    Alternatively, you can use the full username@realmliteral> principal as
+    the role name in PostgreSQLproductname> without any mapping.
    
 
    
-    PostgreSQL also supports a parameter to strip the realm from
+    PostgreSQLproductname> also supports a parameter to strip the realm from
     the principal.  This method is supported for backwards compatibility and is
     strongly discouraged as it is then impossible to distinguish different users
     with the same user name but coming from different realms.  To enable this,
-    set include_realm to 0.  For simple single-realm
+    set include_realmliteral> to 0.  For simple single-realm
     installations, doing that combined with setting the
-    krb_realm parameter (which checks that the principal's realm
+    krb_realmliteral> parameter (which checks that the principal's realm
     matches exactly what is in the krb_realm parameter)
     is still secure; but this is a
     less capable approach compared to specifying an explicit mapping in
-    pg_ident.conf.
+    pg_ident.conffilename>.
    
 
    
@@ -1116,8 +1116,8 @@ omicron         bryanh                  guest1
     of the key file is specified by the 
     linkend="guc-krb-server-keyfile"> configuration
     parameter. The default is
-    /usr/local/pgsql/etc/krb5.keytab (or whatever
-    directory was specified as sysconfdir at build time).
+    /usr/local/pgsql/etc/krb5.keytabfilename> (or whatever
+    directory was specified as sysconfdirvarname> at build time).
     For security reasons, it is recommended to use a separate keytab
     just for the PostgreSQL server rather
     than opening up permissions on the system keytab file.
@@ -1127,17 +1127,17 @@ omicron         bryanh                  guest1
     Kerberos documentation for details. The following example is
    for MIT-compatible Kerberos 5 implementations:
 
-kadmin% >ank -randkey postgres/server.my.domain.org>
-kadmin% >ktadd -k krb5.keytab postgres/server.my.domain.org>
+kadmin% prompt>ank -randkey postgres/server.my.domain.org>
+kadmin% prompt>ktadd -k krb5.keytab postgres/server.my.domain.org>
 
    
 
    
     When connecting to the database make sure you have a ticket for a
     principal matching the requested database user name. For example, for
-    database user name fred, principal
-    [email protected] would be able to connect. To also allow
-    principal fred/[email protected], use a user name
+    database user name fredliteral>, principal
+    [email protected]literal> would be able to connect. To also allow
+    principal fred/[email protected]literal>, use a user name
     map, as described in .
    
 
@@ -1155,8 +1155,8 @@ omicron         bryanh                  guest1
         in multi-realm environments unless krb_realm is
         also used.  It is recommended to
         leave include_realm set to the default (1) and to
-        provide an explicit mapping in pg_ident.conf to convert
-        principal names to PostgreSQL user names.
+        provide an explicit mapping in pg_ident.conffilename> to convert
+        principal names to PostgreSQLproductname> user names.
        
       
      
@@ -1236,8 +1236,8 @@ omicron         bryanh                  guest1
         in multi-realm environments unless krb_realm is
         also used.  It is recommended to
         leave include_realm set to the default (1) and to
-        provide an explicit mapping in pg_ident.conf to convert
-        principal names to PostgreSQL user names.
+        provide an explicit mapping in pg_ident.conffilename> to convert
+        principal names to PostgreSQLproductname> user names.
        
       
      
@@ -1270,9 +1270,9 @@ omicron         bryanh                  guest1
         By default, these two names are identical for new user accounts.
        
        
-        Note that libpq uses the SAM-compatible name if no
+        Note that libpqapplication> uses the SAM-compatible name if no
         explicit user name is specified. If you use
-        libpq or a driver based on it, you should
+        libpqapplication> or a driver based on it, you should
         leave this option disabled or explicitly specify user name in the
         connection string.
        
@@ -1357,8 +1357,8 @@ omicron         bryanh                  guest1
     is to answer questions like What user initiated the
     connection that goes out of your port X
     and connects to my port Y?.
-    Since PostgreSQL> knows both X> and
-    Y when a physical connection is established, it
+    Since PostgreSQLproductname> knows both X> and
+    Yreplaceable> when a physical connection is established, it
     can interrogate the ident server on the host of the connecting
     client and can theoretically determine the operating system user
     for any given connection.
@@ -1386,9 +1386,9 @@ omicron         bryanh                  guest1
    
     Some ident servers have a nonstandard option that causes the returned
     user name to be encrypted, using a key that only the originating
-    machine's administrator knows.  This option must not be
-    used when using the ident server with PostgreSQL,
-    since PostgreSQL does not have any way to decrypt the
+    machine's administrator knows.  This option must notemphasis> be
+    used when using the ident server with PostgreSQLproductname>,
+    since PostgreSQLproductname> does not have any way to decrypt the
     returned string to determine the actual user name.
    
   
@@ -1424,11 +1424,11 @@ omicron         bryanh                  guest1
 
    
     Peer authentication is only available on operating systems providing
-    the getpeereid() function, the SO_PEERCRED
+    the getpeereid()function> function, the SO_PEERCRED
     socket parameter, or similar mechanisms.  Currently that includes
-    Linux,
-    most flavors of BSD including
-    macOS,
+    Linuxsystemitem>,
+    most flavors of BSDsystemitem> including
+    macOSsystemitem>,
     and Solaris.
    
 
@@ -1454,23 +1454,23 @@ omicron         bryanh                  guest1
     LDAP authentication can operate in two modes. In the first mode,
     which we will call the simple bind mode,
     the server will bind to the distinguished name constructed as
-    prefixusername suffix>.
-    Typically, the prefix parameter is used to specify
-    cn=>, or DOMAIN\> in an Active
-    Directory environment.  suffix is used to specify the
+    prefixreplaceable> username suffix>.
+    Typically, the prefixreplaceable> parameter is used to specify
+    cn=literal>, or DOMAIN\> in an Active
+    Directory environment.  suffixreplaceable> is used to specify the
     remaining part of the DN in a non-Active Directory environment.
    
 
    
     In the second mode, which we will call the search+bind mode,
     the server first binds to the LDAP directory with
-    a fixed user name and password, specified with ldapbinddn
-    and ldapbindpasswd, and performs a search for the user trying
+    a fixed user name and password, specified with ldapbinddnreplaceable>
+    and ldapbindpasswdreplaceable>, and performs a search for the user trying
     to log in to the database. If no user and password is configured, an
     anonymous bind will be attempted to the directory. The search will be
-    performed over the subtree at ldapbasedn, and will try to
+    performed over the subtree at ldapbasednreplaceable>, and will try to
     do an exact match of the attribute specified in
-    ldapsearchattribute.
+    ldapsearchattributereplaceable>.
     Once the user has been found in
     this search, the server disconnects and re-binds to the directory as
     this user, using the password specified by the client, to verify that the
@@ -1572,7 +1572,7 @@ omicron         bryanh                  guest1
         
          Attribute to match against the user name in the search when doing
          search+bind authentication.  If no attribute is specified, the
-         uid attribute will be used.
+         uidliteral> attribute will be used.
         
        
       
@@ -1719,11 +1719,11 @@ host ... ldap ldapserver=ldap.example.net ldapbasedn="dc=example, dc=net" ldapse
     When using RADIUS authentication, an Access Request message will be sent
     to the configured RADIUS server. This request will be of type
     Authenticate Only, and include parameters for
-    user name>, password> (encrypted) and
-    NAS Identifier. The request will be encrypted using
+    user nameliteral>, password> (encrypted) and
+    NAS Identifierliteral>. The request will be encrypted using
     a secret shared with the server. The RADIUS server will respond to
-    this server with either Access Accept or
-    Access Reject. There is no support for RADIUS accounting.
+    this server with either Access Acceptliteral> or
+    Access Rejectliteral>. There is no support for RADIUS accounting.
    
 
    
@@ -1762,8 +1762,8 @@ host ... ldap ldapserver=ldap.example.net ldapbasedn="dc=example, dc=net" ldapse
          
          
           The encryption vector used will only be cryptographically
-          strong if PostgreSQL is built with support for
-          OpenSSL. In other cases, the transmission to the
+          strong if PostgreSQLproductname> is built with support for
+          OpenSSLproductname>. In other cases, the transmission to the
           RADIUS server should only be considered obfuscated, not secured, and
           external security measures should be applied if necessary.
          
@@ -1777,7 +1777,7 @@ host ... ldap ldapserver=ldap.example.net ldapbasedn="dc=example, dc=net" ldapse
        
         
          The port number on the RADIUS servers to connect to. If no port
-         is specified, the default port 1812 will be used.
+         is specified, the default port 1812literal> will be used.
         
        
       
@@ -1786,12 +1786,12 @@ host ... ldap ldapserver=ldap.example.net ldapbasedn="dc=example, dc=net" ldapse
        radiusidentifiers
        
         
-         The string used as NAS Identifier in the RADIUS
+         The string used as NAS Identifierliteral> in the RADIUS
          requests. This parameter can be used as a second parameter
          identifying for example which database user the user is attempting
          to authenticate as, which can be used for policy matching on
          the RADIUS server. If no identifier is specified, the default
-         postgresql will be used.
+         postgresqlliteral> will be used.
         
        
       
@@ -1836,11 +1836,11 @@ host ... ldap ldapserver=ldap.example.net ldapbasedn="dc=example, dc=net" ldapse
    
 
    
-    In a pg_hba.conf record specifying certificate
-    authentication, the authentication option clientcert is
-    assumed to be 1, and it cannot be turned off since a client
-    certificate is necessary for this method.  What the cert
-    method adds to the basic clientcert certificate validity test
+    In a pg_hba.conffilename> record specifying certificate
+    authentication, the authentication option clientcertliteral> is
+    assumed to be 1literal>, and it cannot be turned off since a client
+    certificate is necessary for this method.  What the certliteral>
+    method adds to the basic clientcertliteral> certificate validity test
     is a check that the cn attribute matches the database
     user name.
    
@@ -1863,7 +1863,7 @@ host ... ldap ldapserver=ldap.example.net ldapbasedn="dc=example, dc=net" ldapse
     exist in the database before PAM can be used for authentication.  For more
     information about PAM, please read the
     
-    Linux-PAM Page.
+    Linux-PAMproductname> Page.
    
 
    
@@ -1896,7 +1896,7 @@ host ... ldap ldapserver=ldap.example.net ldapbasedn="dc=example, dc=net" ldapse
 
    
     
-     If PAM is set up to read /etc/shadow, authentication
+     If PAM is set up to read /etc/shadowfilename>, authentication
      will fail because the PostgreSQL server is started by a non-root
      user.  However, this is not an issue when PAM is configured to use
      LDAP or other authentication methods.
@@ -1922,11 +1922,11 @@ host ... ldap ldapserver=ldap.example.net ldapbasedn="dc=example, dc=net" ldapse
    
 
    
-    BSD Authentication in PostgreSQL uses
+    BSD Authentication in PostgreSQLproductname> uses
     the auth-postgresql login type and authenticates with
     the postgresql login class if that's defined
     in login.conf. By default that login class does not
-    exist, and PostgreSQL will use the default login class.
+    exist, and PostgreSQLproductname> will use the default login class.
    
 
    
index b012a2699117816dc039bc13fb8403ba56ba3f98..aeda826d874d2e9e6c2c35ac46e7ef5dda22425f 100644 (file)
@@ -70,9 +70,9 @@
        (typically eight kilobytes), milliseconds, seconds, or minutes.
        An unadorned numeric value for one of these settings will use the
        setting's default unit, which can be learned from
-       pg_settings>.unit>.
+       pg_settingsstructname>.unit>.
        For convenience, settings can be given with a unit specified explicitly,
-       for example '120 ms' for a time value, and they will be
+       for example '120 ms'literal> for a time value, and they will be
        converted to whatever the parameter's actual unit is.  Note that the
        value must be written as a string (with quotes) to use this feature.
        The unit name is case-sensitive, and there can be whitespace between
        Enumerated-type parameters are written in the same way as string
        parameters, but are restricted to have one of a limited set of
        values.  The values allowable for such a parameter can be found from
-       pg_settings>.enumvals>.
+       pg_settingsstructname>.enumvals>.
        Enum parameter values are case-insensitive.
       
      
 
     
      The most fundamental way to set these parameters is to edit the file
-     postgresql.conf>postgresql.conf>,
+     postgresql.conffilename>postgresql.conf>,
      which is normally kept in the data directory.  A default copy is
      installed when the database cluster directory is initialized.
      An example of what this file might look like is:
@@ -150,8 +150,8 @@ shared_buffers = 128MB
       SIGHUP
      
      The configuration file is reread whenever the main server process
-     receives a SIGHUP signal; this signal is most easily
-     sent by running pg_ctl reload from the command line or by
+     receives a SIGHUPsystemitem> signal; this signal is most easily
+     sent by running pg_ctl reloadliteral> from the command line or by
      calling the SQL function pg_reload_conf(). The main
      server process also propagates this signal to all currently running
      server processes, so that existing sessions also adopt the new values
@@ -161,26 +161,26 @@ shared_buffers = 128MB
      can only be set at server start; any changes to their entries in the
      configuration file will be ignored until the server is restarted.
      Invalid parameter settings in the configuration file are likewise
-     ignored (but logged) during SIGHUP processing.
+     ignored (but logged) during SIGHUPsystemitem> processing.
     
 
     
-     In addition to postgresql.conf,
+     In addition to postgresql.conffilename>,
      a PostgreSQL data directory contains a file
-     postgresql.auto.conf>postgresql.auto.conf>,
-     which has the same format as postgresql.conf but should
+     postgresql.auto.conffilename>postgresql.auto.conf>,
+     which has the same format as postgresql.conffilename> but should
      never be edited manually.  This file holds settings provided through
      the  command.  This file is automatically
-     read whenever postgresql.conf is, and its settings take
-     effect in the same way.  Settings in postgresql.auto.conf
-     override those in postgresql.conf.
+     read whenever postgresql.conffilename> is, and its settings take
+     effect in the same way.  Settings in postgresql.auto.conffilename>
+     override those in postgresql.conffilename>.
     
 
     
      The system view
      pg_file_settings
      can be helpful for pre-testing changes to the configuration file, or for
-     diagnosing problems if a SIGHUP signal did not have the
+     diagnosing problems if a SIGHUPsystemitem> signal did not have the
      desired effects.
     
    
@@ -193,7 +193,7 @@ shared_buffers = 128MB
       commands to establish configuration defaults.
       The already-mentioned  command
       provides a SQL-accessible means of changing global defaults; it is
-      functionally equivalent to editing postgresql.conf.
+      functionally equivalent to editing postgresql.conffilename>.
       In addition, there are two commands that allow setting of defaults
       on a per-database or per-role basis:
      
@@ -215,7 +215,7 @@ shared_buffers = 128MB
     
 
      
-      Values set with ALTER DATABASE> and ALTER ROLE>
+      Values set with ALTER DATABASEcommand> and ALTER ROLE>
       are applied only when starting a fresh database session.  They
       override values obtained from the configuration files or server
       command line, and constitute defaults for the rest of the session.
@@ -224,7 +224,7 @@ shared_buffers = 128MB
     
 
      
-      Once a client is connected to the database, PostgreSQL
+      Once a client is connected to the database, PostgreSQLproductname>
       provides two additional SQL commands (and equivalent functions) to
       interact with session-local configuration settings:
     
@@ -251,14 +251,14 @@ shared_buffers = 128MB
 
     
      In addition, the system view 
-     linkend="view-pg-settings">pg_settings>> can be
+     linkend="view-pg-settings">pg_settingsstructname>> can be
      used to view and change session-local values:
     
 
     
      
       
-       Querying this view is similar to using SHOW ALL but
+       Querying this view is similar to using SHOW ALLcommand> but
        provides more detail.  It is also more flexible, since it's possible
        to specify filter conditions or join against other relations.
       
@@ -267,8 +267,8 @@ shared_buffers = 128MB
      
       
        Using  on this view, specifically
-       updating the setting column, is the equivalent
-       of issuing SET commands.  For example, the equivalent of
+       updating the settingstructname> column, is the equivalent
+       of issuing SETcommand> commands.  For example, the equivalent of
 
 SET configuration_parameter TO DEFAULT;
 
@@ -289,7 +289,7 @@ UPDATE pg_settings SET setting = reset_val WHERE name = 'configuration_parameter
       In addition to setting global defaults or attaching
       overrides at the database or role level, you can pass settings to
       PostgreSQL via shell facilities.
-      Both the server and libpq client library
+      Both the server and libpqapplication> client library
       accept parameter values via the shell.
      
 
@@ -298,26 +298,26 @@ UPDATE pg_settings SET setting = reset_val WHERE name = 'configuration_parameter
       
        During server startup, parameter settings can be
        passed to the postgres command via the
-       
+       
 
 postgres -c log_connections=yes -c log_destination='syslog'
 
        Settings provided in this way override those set via
-       postgresql.conf> or ALTER SYSTEM>,
+       postgresql.conffilename> or ALTER SYSTEM>,
        so they cannot be changed globally without restarting the server.
      
     
 
     
      
-      When starting a client session via libpq,
+      When starting a client session via libpqapplication>,
       parameter settings can be
       specified using the PGOPTIONS environment variable.
       Settings established in this way constitute defaults for the life
       of the session, but do not affect other sessions.
       For historical reasons, the format of PGOPTIONS is
       similar to that used when launching the postgres
-      command; specifically, the 
+      command; specifically, the 
       For example,
 
 env PGOPTIONS="-c geqo=off -c statement_timeout=5min" psql
@@ -338,20 +338,20 @@ env PGOPTIONS="-c geqo=off -c statement_timeout=5min" psql
     Managing Configuration File Contents
 
      
-      PostgreSQL provides several features for breaking
-      down complex postgresql.conf files into sub-files.
+      PostgreSQLproductname> provides several features for breaking
+      down complex postgresql.conffilename> files into sub-files.
       These features are especially useful when managing multiple servers
       with related, but not identical, configurations.
      
 
      
       
-       include
+       includeliteral>
        in configuration file
       
       In addition to individual parameter settings,
-      the postgresql.conf file can contain include
-      directives, which specify another file to read and process as if
+      the postgresql.conffilename> file can contain include
+      directivesfirstterm>, which specify another file to read and process as if
       it were inserted into the configuration file at this point.  This
       feature allows a configuration file to be divided into physically
       separate parts.  Include directives simply look like:
@@ -365,23 +365,23 @@ include 'filename'
 
      
       
-       include_if_exists
+       include_if_existsliteral>
        in configuration file
       
-      There is also an include_if_exists directive, which acts
-      the same as the include directive, except
+      There is also an include_if_existsliteral> directive, which acts
+      the same as the includeliteral> directive, except
       when the referenced file does not exist or cannot be read.  A regular
-      include will consider this an error condition, but
-      include_if_exists merely logs a message and continues
+      includeliteral> will consider this an error condition, but
+      include_if_existsliteral> merely logs a message and continues
       processing the referencing configuration file.
      
 
      
       
-       include_dir
+       include_dirliteral>
        in configuration file
       
-      The postgresql.conf file can also contain
+      The postgresql.conffilename> file can also contain
       include_dir directives, which specify an entire
       directory of configuration files to include.  These look like
 
@@ -401,36 +401,36 @@ include_dir 'directory'
      
       Include files or directories can be used to logically separate portions
       of the database configuration, rather than having a single large
-      postgresql.conf file.  Consider a company that has two
+      postgresql.conffilename> file.  Consider a company that has two
       database servers, each with a different amount of memory.  There are
       likely elements of the configuration both will share, for things such
       as logging.  But memory-related parameters on the server will vary
       between the two.  And there might be server specific customizations,
       too.  One way to manage this situation is to break the custom
       configuration changes for your site into three files.  You could add
-      this to the end of your postgresql.conf file to include
+      this to the end of your postgresql.conffilename> file to include
       them:
 
 include 'shared.conf'
 include 'memory.conf'
 include 'server.conf'
 
-      All systems would have the same shared.conf.  Each
+      All systems would have the same shared.conffilename>.  Each
       server with a particular amount of memory could share the
-      same memory.conf; you might have one for all servers
+      same memory.conffilename>; you might have one for all servers
       with 8GB of RAM, another for those having 16GB.  And
-      finally server.conf could have truly server-specific
+      finally server.conffilename> could have truly server-specific
       configuration information in it.
      
 
      
       Another possibility is to create a configuration file directory and
-      put this information into files there. For example, a conf.d
-      directory could be referenced at the end of postgresql.conf:
+      put this information into files there. For example, a conf.dfilename>
+      directory could be referenced at the end of postgresql.conffilename>:
 
 include_dir 'conf.d'
 
-      Then you could name the files in the conf.d directory
+      Then you could name the files in the conf.dfilename> directory
       like this:
 
 00shared.conf
@@ -441,8 +441,8 @@ include_dir 'conf.d'
        files will be loaded.  This is important because only the last
        setting encountered for a particular parameter while the server is
        reading configuration files will be used.  In this example,
-       something set in conf.d/02server.conf would override a
-       value set in conf.d/01memory.conf.
+       something set in conf.d/02server.conffilename> would override a
+       value set in conf.d/01memory.conffilename>.
      
 
      
@@ -483,7 +483,7 @@ include_dir 'conf.d'
      
       data_directory (string)
       
-       data_directory configuration parameter
+       data_directoryvarname> configuration parameter
       
       
       
@@ -497,13 +497,13 @@ include_dir 'conf.d'
      
       config_file (string)
       
-       config_file configuration parameter
+       config_filevarname> configuration parameter
       
       
       
        
          Specifies the main server configuration file
-         (customarily called postgresql.conf).
+         (customarily called postgresql.conffilename>).
          This parameter can only be set on the postgres command line.
        
       
@@ -512,13 +512,13 @@ include_dir 'conf.d'
      
       hba_file (string)
       
-       hba_file configuration parameter
+       hba_filevarname> configuration parameter
       
       
       
        
          Specifies the configuration file for host-based authentication
-         (customarily called pg_hba.conf).
+         (customarily called pg_hba.conffilename>).
          This parameter can only be set at server start.
        
       
@@ -527,13 +527,13 @@ include_dir 'conf.d'
      
       ident_file (string)
       
-       ident_file configuration parameter
+       ident_filevarname> configuration parameter
       
       
       
        
          Specifies the configuration file for user name mapping
-         (customarily called pg_ident.conf).
+         (customarily called pg_ident.conffilename>).
          This parameter can only be set at server start.
          See also .
        
@@ -543,7 +543,7 @@ include_dir 'conf.d'
      
       external_pid_file (string)
       
-       external_pid_file configuration parameter
+       external_pid_filevarname> configuration parameter
       
       
       
@@ -569,10 +569,10 @@ include_dir 'conf.d'
       data directory, the postgres 
       command-line option or PGDATA environment variable
       must point to the directory containing the configuration files,
-      and the data_directory parameter must be set in
+      and the data_directoryvarname> parameter must be set in
       postgresql.conf (or on the command line) to show
       where the data directory is actually located.  Notice that
-      data_directory overrides  and
+      data_directoryvarname> overrides  and
       PGDATA for the location
       of the data directory, but not for the location of the configuration
       files.
@@ -580,12 +580,12 @@ include_dir 'conf.d'
 
      
       If you wish, you can specify the configuration file names and locations
-      individually using the parameters config_file,
-      hba_file> and/or ident_file>.
-      config_file can only be specified on the
+      individually using the parameters config_filevarname>,
+      hba_filevarname> and/or ident_file>.
+      config_filevarname> can only be specified on the
       postgres command line, but the others can be
       set within the main configuration file.  If all three parameters plus
-      data_directory are explicitly set, then it is not necessary
+      data_directoryvarname> are explicitly set, then it is not necessary
       to specify  or PGDATA.
      
 
@@ -607,7 +607,7 @@ include_dir 'conf.d'
      
       listen_addresses (string)
       
-       listen_addresses configuration parameter
+       listen_addressesvarname> configuration parameter
       
       
       
@@ -615,15 +615,15 @@ include_dir 'conf.d'
          Specifies the TCP/IP address(es) on which the server is
          to listen for connections from client applications.
          The value takes the form of a comma-separated list of host names
-         and/or numeric IP addresses.  The special entry *
+         and/or numeric IP addresses.  The special entry *literal>
          corresponds to all available IP interfaces.  The entry
-         0.0.0.0 allows listening for all IPv4 addresses and
-         :: allows listening for all IPv6 addresses.
+         0.0.0.0literal> allows listening for all IPv4 addresses and
+         ::literal> allows listening for all IPv6 addresses.
          If the list is empty, the server does not listen on any IP interface
          at all, in which case only Unix-domain sockets can be used to connect
          to it.
-         The default value is localhost,
-         which allows only local TCP/IP loopback connections to be
+         The default value is localhostsystemitem>,
+         which allows only local TCP/IP loopbackquote> connections to be
          made.  While client authentication (
          linkend="client-authentication">) allows fine-grained control
          over who can access the server, listen_addresses
@@ -638,7 +638,7 @@ include_dir 'conf.d'
      
       port (integer)
       
-       port configuration parameter
+       portvarname> configuration parameter
       
       
       
@@ -653,7 +653,7 @@ include_dir 'conf.d'
      
       max_connections (integer)
       
-       max_connections configuration parameter
+       max_connectionsvarname> configuration parameter
       
       
       
@@ -661,7 +661,7 @@ include_dir 'conf.d'
         Determines the maximum number of concurrent connections to the
         database server. The default is typically 100 connections, but
         might be less if your kernel settings will not support it (as
-        determined during initdb).  This parameter can
+        determined during initdbapplication>).  This parameter can
         only be set at server start.
        
 
@@ -678,17 +678,17 @@ include_dir 'conf.d'
       superuser_reserved_connections
       (integer)
       
-       superuser_reserved_connections configuration parameter
+       superuser_reserved_connectionsvarname> configuration parameter
       
       
       
        
         Determines the number of connection slots that
-        are reserved for connections by PostgreSQL
+        are reserved for connections by PostgreSQLproductname>
         superusers.  At most 
         connections can ever be active simultaneously.  Whenever the
         number of active concurrent connections is at least
-        max_connections minus
+        max_connectionsvarname> minus
         superuser_reserved_connections, new
         connections will be accepted only for superusers, and no
         new replication connections will be accepted.
@@ -705,7 +705,7 @@ include_dir 'conf.d'
      
       unix_socket_directories (string)
       
-       unix_socket_directories configuration parameter
+       unix_socket_directoriesvarname> configuration parameter
       
       
       
@@ -726,10 +726,10 @@ include_dir 'conf.d'
 
        
         In addition to the socket file itself, which is named
-        .s.PGSQL.nnnn where
-        nnnn is the server's port number, an ordinary file
-        named .s.PGSQL.nnnn.lock will be
-        created in each of the unix_socket_directories directories.
+        .s.PGSQL.nnnnreplaceable> where
+        nnnnreplaceable> is the server's port number, an ordinary file
+        named .s.PGSQL.nnnnreplaceable>.lock will be
+        created in each of the unix_socket_directoriesvarname> directories.
         Neither file should ever be removed manually.
        
 
@@ -743,7 +743,7 @@ include_dir 'conf.d'
      
       unix_socket_group (string)
       
-       unix_socket_group configuration parameter
+       unix_socket_groupvarname> configuration parameter
       
       
       
@@ -768,7 +768,7 @@ include_dir 'conf.d'
      
       unix_socket_permissions (integer)
       
-       unix_socket_permissions configuration parameter
+       unix_socket_permissionsvarname> configuration parameter
       
       
       
@@ -804,7 +804,7 @@ include_dir 'conf.d'
        
         This parameter is irrelevant on systems, notably Solaris as of Solaris
         10, that ignore socket permissions entirely.  There, one can achieve a
-        similar effect by pointing unix_socket_directories to a
+        similar effect by pointing unix_socket_directoriesvarname> to a
         directory having search permission limited to the desired audience.
         This parameter is also irrelevant on Windows, which does not have
         Unix-domain sockets.
@@ -815,7 +815,7 @@ include_dir 'conf.d'
      
       bonjour (boolean)
       
-       bonjour configuration parameter
+       bonjourvarname> configuration parameter
       
       
       
@@ -830,14 +830,14 @@ include_dir 'conf.d'
      
       bonjour_name (string)
       
-       bonjour_name configuration parameter
+       bonjour_namevarname> configuration parameter
       
       
       
        
         Specifies the Bonjour service
         name.  The computer name is used if this parameter is set to the
-        empty string '' (which is the default).  This parameter is
+        empty string ''literal> (which is the default).  This parameter is
         ignored if the server was not compiled with
         Bonjour support.
         This parameter can only be set at server start.
@@ -848,7 +848,7 @@ include_dir 'conf.d'
      
       tcp_keepalives_idle (integer)
       
-       tcp_keepalives_idle configuration parameter
+       tcp_keepalives_idlevarname> configuration parameter
       
       
       
@@ -857,7 +857,7 @@ include_dir 'conf.d'
         should send a keepalive message to the client.  A value of 0 uses
         the system default.
         This parameter is supported only on systems that support
-        TCP_KEEPIDLE or an equivalent socket option, and on
+        TCP_KEEPIDLEsymbol> or an equivalent socket option, and on
         Windows; on other systems, it must be zero.
         In sessions connected via a Unix-domain socket, this parameter is
         ignored and always reads as zero.
@@ -874,7 +874,7 @@ include_dir 'conf.d'
      
       tcp_keepalives_interval (integer)
       
-       tcp_keepalives_interval configuration parameter
+       tcp_keepalives_intervalvarname> configuration parameter
       
       
       
@@ -883,7 +883,7 @@ include_dir 'conf.d'
         that is not acknowledged by the client should be retransmitted.
         A value of 0 uses the system default.
         This parameter is supported only on systems that support
-        TCP_KEEPINTVL or an equivalent socket option, and on
+        TCP_KEEPINTVLsymbol> or an equivalent socket option, and on
         Windows; on other systems, it must be zero.
         In sessions connected via a Unix-domain socket, this parameter is
         ignored and always reads as zero.
@@ -900,7 +900,7 @@ include_dir 'conf.d'
      
       tcp_keepalives_count (integer)
       
-       tcp_keepalives_count configuration parameter
+       tcp_keepalives_countvarname> configuration parameter
       
       
       
@@ -909,7 +909,7 @@ include_dir 'conf.d'
         the server's connection to the client is considered dead.
         A value of 0 uses the system default.
         This parameter is supported only on systems that support
-        TCP_KEEPCNT or an equivalent socket option;
+        TCP_KEEPCNTsymbol> or an equivalent socket option;
         on other systems, it must be zero.
         In sessions connected via a Unix-domain socket, this parameter is
         ignored and always reads as zero.
@@ -930,10 +930,10 @@ include_dir 'conf.d'
      
      
       authentication_timeout (integer)
-      timeout>client authentication>
-      client authentication>timeout during>
+      timeoutprimary>client authentication>
+      client authenticationprimary>timeout during>
       
-       authentication_timeout configuration parameter
+       authentication_timeoutvarname> configuration parameter
       
       
 
@@ -943,8 +943,8 @@ include_dir 'conf.d'
         would-be client has not completed the authentication protocol in
         this much time, the server closes the connection. This prevents
         hung clients from occupying a connection indefinitely.
-        The default is one minute (1m).
-        This parameter can only be set in the postgresql.conf
+        The default is one minute (1mliteral>).
+        This parameter can only be set in the postgresql.conffilename>
         file or on the server command line.
        
       
@@ -953,16 +953,16 @@ include_dir 'conf.d'
      
       ssl (boolean)
       
-       ssl configuration parameter
+       sslvarname> configuration parameter
       
       
       
        
-        Enables SSL connections. Please read
+        Enables SSLacronym> connections. Please read
          before using this.
-        This parameter can only be set in the postgresql.conf
+        This parameter can only be set in the postgresql.conffilename>
         file or on the server command line.
-        The default is off.
+        The default is offliteral>.
        
       
      
@@ -970,7 +970,7 @@ include_dir 'conf.d'
      
       ssl_ca_file (string)
       
-       ssl_ca_file configuration parameter
+       ssl_ca_filevarname> configuration parameter
       
       
       
@@ -978,7 +978,7 @@ include_dir 'conf.d'
         Specifies the name of the file containing the SSL server certificate
         authority (CA).
         Relative paths are relative to the data directory.
-        This parameter can only be set in the postgresql.conf
+        This parameter can only be set in the postgresql.conffilename>
         file or on the server command line.
         The default is empty, meaning no CA file is loaded,
         and client certificate verification is not performed.
@@ -989,14 +989,14 @@ include_dir 'conf.d'
      
       ssl_cert_file (string)
       
-       ssl_cert_file configuration parameter
+       ssl_cert_filevarname> configuration parameter
       
       
       
        
         Specifies the name of the file containing the SSL server certificate.
         Relative paths are relative to the data directory.
-        This parameter can only be set in the postgresql.conf
+        This parameter can only be set in the postgresql.conffilename>
         file or on the server command line.
         The default is server.crt.
        
@@ -1006,7 +1006,7 @@ include_dir 'conf.d'
      
       ssl_crl_file (string)
       
-       ssl_crl_file configuration parameter
+       ssl_crl_filevarname> configuration parameter
       
       
       
@@ -1014,7 +1014,7 @@ include_dir 'conf.d'
         Specifies the name of the file containing the SSL server certificate
         revocation list (CRL).
         Relative paths are relative to the data directory.
-        This parameter can only be set in the postgresql.conf
+        This parameter can only be set in the postgresql.conffilename>
         file or on the server command line.
         The default is empty, meaning no CRL file is loaded.
        
@@ -1024,14 +1024,14 @@ include_dir 'conf.d'
      
       ssl_key_file (string)
       
-       ssl_key_file configuration parameter
+       ssl_key_filevarname> configuration parameter
       
       
       
        
         Specifies the name of the file containing the SSL server private key.
         Relative paths are relative to the data directory.
-        This parameter can only be set in the postgresql.conf
+        This parameter can only be set in the postgresql.conffilename>
         file or on the server command line.
         The default is server.key.
        
@@ -1041,19 +1041,19 @@ include_dir 'conf.d'
      
       ssl_ciphers (string)
       
-       ssl_ciphers configuration parameter
+       ssl_ciphersvarname> configuration parameter
       
       
       
        
-        Specifies a list of SSL cipher suites that are allowed to be
+        Specifies a list of SSLacronym> cipher suites that are allowed to be
         used on secure connections.  See
-        the ciphers manual page
-        in the OpenSSL package for the syntax of this setting
+        the ciphersrefentrytitle> manual page
+        in the OpenSSLapplication> package for the syntax of this setting
         and a list of supported values.
-        This parameter can only be set in the postgresql.conf
+        This parameter can only be set in the postgresql.conffilename>
         file or on the server command line.
-        The default value is HIGH:MEDIUM:+3DES:!aNULL.  The
+        The default value is HIGH:MEDIUM:+3DES:!aNULLliteral>.  The
         default is usually a reasonable choice unless you have specific
         security requirements.
        
@@ -1065,7 +1065,7 @@ include_dir 'conf.d'
           HIGH
           
            
-            Cipher suites that use ciphers from HIGH group (e.g.,
+            Cipher suites that use ciphers from HIGHliteral> group (e.g.,
             AES, Camellia, 3DES)
            
           
@@ -1075,7 +1075,7 @@ include_dir 'conf.d'
           MEDIUM
           
            
-            Cipher suites that use ciphers from MEDIUM group
+            Cipher suites that use ciphers from MEDIUMliteral> group
             (e.g., RC4, SEED)
            
           
@@ -1085,11 +1085,11 @@ include_dir 'conf.d'
           +3DES
           
            
-            The OpenSSL default order for HIGH is problematic
+            The OpenSSL default order for HIGHliteral> is problematic
             because it orders 3DES higher than AES128.  This is wrong because
             3DES offers less security than AES128, and it is also much
-            slower.  +3DES reorders it after all other
-            HIGH> and MEDIUM> ciphers.
+            slower.  +3DESliteral> reorders it after all other
+            HIGHliteral> and MEDIUM> ciphers.
            
           
          
@@ -1111,7 +1111,7 @@ include_dir 'conf.d'
         Available cipher suite details will vary across OpenSSL versions.  Use
         the command
         openssl ciphers -v 'HIGH:MEDIUM:+3DES:!aNULL' to
-        see actual details for the currently installed OpenSSL
+        see actual details for the currently installed OpenSSLapplication>
         version.  Note that this list is filtered at run time based on the
         server key type.
        
@@ -1121,16 +1121,16 @@ include_dir 'conf.d'
      
       ssl_prefer_server_ciphers (boolean)
       
-       ssl_prefer_server_ciphers configuration parameter
+       ssl_prefer_server_ciphersvarname> configuration parameter
       
       
       
        
         Specifies whether to use the server's SSL cipher preferences, rather
         than the client's.
-        This parameter can only be set in the postgresql.conf
+        This parameter can only be set in the postgresql.conffilename>
         file or on the server command line.
-        The default is true.
+        The default is trueliteral>.
        
 
        
@@ -1146,28 +1146,28 @@ include_dir 'conf.d'
      
       ssl_ecdh_curve (string)
       
-       ssl_ecdh_curve configuration parameter
+       ssl_ecdh_curvevarname> configuration parameter
       
       
       
        
-        Specifies the name of the curve to use in ECDH key
+        Specifies the name of the curve to use in ECDHacronym> key
         exchange.  It needs to be supported by all clients that connect.
         It does not need to be the same curve used by the server's Elliptic
         Curve key.
-        This parameter can only be set in the postgresql.conf
+        This parameter can only be set in the postgresql.conffilename>
         file or on the server command line.
-        The default is prime256v1.
+        The default is prime256v1literal>.
        
 
        
         OpenSSL names for the most common curves are:
-        prime256v1 (NIST P-256),
-        secp384r1 (NIST P-384),
-        secp521r1 (NIST P-521).
+        prime256v1literal> (NIST P-256),
+        secp384r1literal> (NIST P-384),
+        secp521r1literal> (NIST P-521).
         The full list of available curves can be shown with the command
         openssl ecparam -list_curves.  Not all of them
-        are usable in TLS though.
+        are usable in TLSacronym> though.
        
       
      
@@ -1175,17 +1175,17 @@ include_dir 'conf.d'
      
       password_encryption (enum)
       
-       password_encryption configuration parameter
+       password_encryptionvarname> configuration parameter
       
       
       
        
         When a password is specified in  or
         , this parameter determines the algorithm
-        to use to encrypt the password. The default value is md5,
-        which stores the password as an MD5 hash (on is also
-        accepted, as alias for md5). Setting this parameter to
-        scram-sha-256 will encrypt the password with SCRAM-SHA-256.
+        to use to encrypt the password. The default value is md5literal>,
+        which stores the password as an MD5 hash (onliteral> is also
+        accepted, as alias for md5literal>). Setting this parameter to
+        scram-sha-256literal> will encrypt the password with SCRAM-SHA-256.
        
        
         Note that older clients might lack support for the SCRAM authentication
@@ -1198,7 +1198,7 @@ include_dir 'conf.d'
      
       ssl_dh_params_file (string)
       
-       ssl_dh_params_file configuration parameter
+       ssl_dh_params_filevarname> configuration parameter
       
       
       
@@ -1213,7 +1213,7 @@ include_dir 'conf.d'
        
 
        
-        This parameter can only be set in the postgresql.conf
+        This parameter can only be set in the postgresql.conffilename>
         file or on the server command line.
        
       
@@ -1222,7 +1222,7 @@ include_dir 'conf.d'
      
       krb_server_keyfile (string)
       
-       krb_server_keyfile configuration parameter
+       krb_server_keyfilevarname> configuration parameter
       
       
       
@@ -1230,7 +1230,7 @@ include_dir 'conf.d'
         Sets the location of the Kerberos server key file. See
         
         for details. This parameter can only be set in the
-        postgresql.conf file or on the server command line.
+        postgresql.conffilename> file or on the server command line.
        
       
      
@@ -1245,8 +1245,8 @@ include_dir 'conf.d'
        
         Sets whether GSSAPI user names should be treated
         case-insensitively.
-        The default is off (case sensitive). This parameter can only be
-        set in the postgresql.conf file or on the server command line.
+        The default is offliteral> (case sensitive). This parameter can only be
+        set in the postgresql.conffilename> file or on the server command line.
        
       
      
@@ -1254,43 +1254,43 @@ include_dir 'conf.d'
      
       db_user_namespace (boolean)
       
-       db_user_namespace configuration parameter
+       db_user_namespacevarname> configuration parameter
       
       
       
        
         This parameter enables per-database user names.  It is off by default.
-        This parameter can only be set in the postgresql.conf
+        This parameter can only be set in the postgresql.conffilename>
         file or on the server command line.
        
 
        
-        If this is on, you should create users as username@dbname.
-        When username is passed by a connecting client,
-        @ and the database name are appended to the user
+        If this is on, you should create users as username@dbnamereplaceable>.
+        When usernamereplaceable> is passed by a connecting client,
+        @literal> and the database name are appended to the user
         name and that database-specific user name is looked up by the
         server. Note that when you create users with names containing
-        @ within the SQL environment, you will need to
+        @literal> within the SQL environment, you will need to
         quote the user name.
        
 
        
         With this parameter enabled, you can still create ordinary global
-        users.  Simply append @ when specifying the user
-        name in the client, e.g. joe@>.  The @>
+        users.  Simply append @literal> when specifying the user
+        name in the client, e.g. joe@literal>.  The @>
         will be stripped off before the user name is looked up by the
         server.
        
 
        
-        db_user_namespace causes the client's and
+        db_user_namespacevarname> causes the client's and
         server's user name representation to differ.
         Authentication checks are always done with the server's user name
         so authentication methods must be configured for the
         server's user name, not the client's.  Because
-        md5 uses the user name as salt on both the
-        client and server, md5 cannot be used with
-        db_user_namespace.
+        md5literal> uses the user name as salt on both the
+        client and server, md5literal> cannot be used with
+        db_user_namespacevarname>.
        
 
        
@@ -1317,15 +1317,15 @@ include_dir 'conf.d'
      
       shared_buffers (integer)
       
-       shared_buffers configuration parameter
+       shared_buffersvarname> configuration parameter
       
       
       
        
         Sets the amount of memory the database server uses for shared
         memory buffers.  The default is typically 128 megabytes
-        (128MB), but might be less if your kernel settings will
-        not support it (as determined during initdb).
+        (128MBliteral>), but might be less if your kernel settings will
+        not support it (as determined during initdbapplication>).
         This setting must be at least 128 kilobytes.  (Non-default
         values of BLCKSZ change the minimum.)  However,
         settings significantly higher than the minimum are usually needed
@@ -1358,7 +1358,7 @@ include_dir 'conf.d'
      
       huge_pages (enum)
       
-       huge_pages configuration parameter
+       huge_pagesvarname> configuration parameter
       
       
       
@@ -1392,7 +1392,7 @@ include_dir 'conf.d'
      
       temp_buffers (integer)
       
-       temp_buffers configuration parameter
+       temp_buffersvarname> configuration parameter
       
       
       
@@ -1400,7 +1400,7 @@ include_dir 'conf.d'
         Sets the maximum number of temporary buffers used by each database
         session.  These are session-local buffers used only for access to
         temporary tables.  The default is eight megabytes
-        (8MB).  The setting can be changed within individual
+        (8MBliteral>).  The setting can be changed within individual
         sessions, but only before the first use of temporary tables
         within the session; subsequent attempts to change the value will
         have no effect on that session.
@@ -1408,10 +1408,10 @@ include_dir 'conf.d'
 
        
         A session will allocate temporary buffers as needed up to the limit
-        given by temp_buffers.  The cost of setting a large
+        given by temp_buffersvarname>.  The cost of setting a large
         value in sessions that do not actually need many temporary
         buffers is only a buffer descriptor, or about 64 bytes, per
-        increment in temp_buffers.  However if a buffer is
+        increment in temp_buffersvarname>.  However if a buffer is
         actually used an additional 8192 bytes will be consumed for it
         (or in general, BLCKSZ bytes).
        
@@ -1421,13 +1421,13 @@ include_dir 'conf.d'
      
       max_prepared_transactions (integer)
       
-       max_prepared_transactions configuration parameter
+       max_prepared_transactionsvarname> configuration parameter
       
       
       
        
         Sets the maximum number of transactions that can be in the
-        prepared state simultaneously (see 
+        preparedquote> state simultaneously (see 
         linkend="sql-prepare-transaction">).
         Setting this parameter to zero (which is the default)
         disables the prepared-transaction feature.
@@ -1454,14 +1454,14 @@ include_dir 'conf.d'
      
       work_mem (integer)
       
-       work_mem configuration parameter
+       work_memvarname> configuration parameter
       
       
       
        
         Specifies the amount of memory to be used by internal sort operations
         and hash tables before writing to temporary disk files. The value
-        defaults to four megabytes (4MB).
+        defaults to four megabytes (4MBliteral>).
         Note that for a complex query, several sort or hash operations might be
         running in parallel; each operation will be allowed to use as much memory
         as this value specifies before it starts to write data into temporary
@@ -1469,10 +1469,10 @@ include_dir 'conf.d'
         concurrently.  Therefore, the total memory used could be many
         times the value of work_mem; it is necessary to
         keep this fact in mind when choosing the value. Sort operations are
-        used for ORDER BY>, DISTINCT>, and
+        used for ORDER BYliteral>, DISTINCT>, and
         merge joins.
         Hash tables are used in hash joins, hash-based aggregation, and
-        hash-based processing of IN subqueries.
+        hash-based processing of INliteral> subqueries.
        
       
      
@@ -1480,15 +1480,15 @@ include_dir 'conf.d'
      
       maintenance_work_mem (integer)
       
-       maintenance_work_mem configuration parameter
+       maintenance_work_memvarname> configuration parameter
       
       
       
        
         Specifies the maximum amount of memory to be used by maintenance
         operations, such as VACUUMCREATE
-        INDEX>, and ALTER TABLE ADD FOREIGN KEY>.  It defaults
-        to 64 megabytes (64MB).  Since only one of these
+        INDEXcommand>, and ALTER TABLE ADD FOREIGN KEY>.  It defaults
+        to 64 megabytes (64MBliteral>).  Since only one of these
         operations can be executed at a time by a database session, and
         an installation normally doesn't have many of them running
         concurrently, it's safe to set this value significantly larger
@@ -1508,7 +1508,7 @@ include_dir 'conf.d'
      
       autovacuum_work_mem (integer)
       
-       autovacuum_work_mem configuration parameter
+       autovacuum_work_memvarname> configuration parameter
       
       
       
@@ -1525,26 +1525,26 @@ include_dir 'conf.d'
      
       max_stack_depth (integer)
       
-       max_stack_depth configuration parameter
+       max_stack_depthvarname> configuration parameter
       
       
       
        
         Specifies the maximum safe depth of the server's execution stack.
         The ideal setting for this parameter is the actual stack size limit
-        enforced by the kernel (as set by ulimit -s or local
+        enforced by the kernel (as set by ulimit -sliteral> or local
         equivalent), less a safety margin of a megabyte or so.  The safety
         margin is needed because the stack depth is not checked in every
         routine in the server, but only in key potentially-recursive routines
         such as expression evaluation.  The default setting is two
-        megabytes (2MB), which is conservatively small and
+        megabytes (2MBliteral>), which is conservatively small and
         unlikely to risk crashes.  However, it might be too small to allow
         execution of complex functions.  Only superusers can change this
         setting.
        
 
        
-        Setting max_stack_depth higher than
+        Setting max_stack_depthvarname> higher than
         the actual kernel limit will mean that a runaway recursive function
         can crash an individual backend process.  On platforms where
         PostgreSQL can determine the kernel limit,
@@ -1558,25 +1558,25 @@ include_dir 'conf.d'
      
       dynamic_shared_memory_type (enum)
       
-       dynamic_shared_memory_type configuration parameter
+       dynamic_shared_memory_typevarname> configuration parameter
       
       
       
        
         Specifies the dynamic shared memory implementation that the server
-        should use.  Possible values are posix (for POSIX shared
-        memory allocated using shm_open), sysv
-        (for System V shared memory allocated via shmget),
-        windows> (for Windows shared memory), mmap>
+        should use.  Possible values are posixliteral> (for POSIX shared
+        memory allocated using shm_openliteral>), sysv
+        (for System V shared memory allocated via shmgetliteral>),
+        windowsliteral> (for Windows shared memory), mmap>
         (to simulate shared memory using memory-mapped files stored in the
-        data directory), and none (to disable this feature).
+        data directory), and noneliteral> (to disable this feature).
         Not all values are supported on all platforms; the first supported
         option is the default for that platform.  The use of the
-        mmap option, which is not the default on any platform,
+        mmapliteral> option, which is not the default on any platform,
         is generally discouraged because the operating system may write
         modified pages back to disk repeatedly, increasing system I/O load;
         however, it may be useful for debugging, when the
-        pg_dynshmem directory is stored on a RAM disk, or when
+        pg_dynshmemliteral> directory is stored on a RAM disk, or when
         other shared memory facilities are not available.
        
       
@@ -1592,7 +1592,7 @@ include_dir 'conf.d'
      
       temp_file_limit (integer)
       
-       temp_file_limit configuration parameter
+       temp_file_limitvarname> configuration parameter
       
       
       
@@ -1601,13 +1601,13 @@ include_dir 'conf.d'
         for temporary files, such as sort and hash temporary files, or the
         storage file for a held cursor.  A transaction attempting to exceed
         this limit will be canceled.
-        The value is specified in kilobytes, and -1 (the
+        The value is specified in kilobytes, and -1literal> (the
         default) means no limit.
         Only superusers can change this setting.
        
        
         This setting constrains the total space used at any instant by all
-        temporary files used by a given PostgreSQL process.
+        temporary files used by a given PostgreSQLproductname> process.
         It should be noted that disk space used for explicit temporary
         tables, as opposed to temporary files used behind-the-scenes in query
         execution, does not count against this limit.
@@ -1625,7 +1625,7 @@ include_dir 'conf.d'
      
       max_files_per_process (integer)
       
-       max_files_per_process configuration parameter
+       max_files_per_processvarname> configuration parameter
       
       
       
@@ -1637,7 +1637,7 @@ include_dir 'conf.d'
         allow individual processes to open many more files than the system
         can actually support if many processes all try to open
         that many files. If you find yourself seeing Too many open
-        files failures, try reducing this setting.
+        filesquote> failures, try reducing this setting.
         This parameter can only be set at server start.
        
       
@@ -1684,7 +1684,7 @@ include_dir 'conf.d'
       
        vacuum_cost_delay (integer)
        
-        vacuum_cost_delay configuration parameter
+        vacuum_cost_delayvarname> configuration parameter
        
        
        
@@ -1702,7 +1702,7 @@ include_dir 'conf.d'
 
         
          When using cost-based vacuuming, appropriate values for
-         vacuum_cost_delay are usually quite small, perhaps
+         vacuum_cost_delayvarname> are usually quite small, perhaps
          10 or 20 milliseconds.  Adjusting vacuum's resource consumption
          is best done by changing the other vacuum cost parameters.
         
@@ -1712,7 +1712,7 @@ include_dir 'conf.d'
       
        vacuum_cost_page_hit (integer)
        
-        vacuum_cost_page_hit configuration parameter
+        vacuum_cost_page_hitvarname> configuration parameter
        
        
        
@@ -1728,7 +1728,7 @@ include_dir 'conf.d'
       
        vacuum_cost_page_miss (integer)
        
-        vacuum_cost_page_miss configuration parameter
+        vacuum_cost_page_missvarname> configuration parameter
        
        
        
@@ -1744,7 +1744,7 @@ include_dir 'conf.d'
       
        vacuum_cost_page_dirty (integer)
        
-        vacuum_cost_page_dirty configuration parameter
+        vacuum_cost_page_dirtyvarname> configuration parameter
        
        
        
@@ -1760,7 +1760,7 @@ include_dir 'conf.d'
       
        vacuum_cost_limit (integer)
        
-        vacuum_cost_limit configuration parameter
+        vacuum_cost_limitvarname> configuration parameter
        
        
        
@@ -1792,8 +1792,8 @@ include_dir 'conf.d'
 
      
       There is a separate server
-      process called the background writer, whose function
-      is to issue writes of dirty (new or modified) shared
+      process called the background writerfirstterm>, whose function
+      is to issue writes of dirtyquote> (new or modified) shared
       buffers.  It writes shared buffers so server processes handling
       user queries seldom or never need to wait for a write to occur.
       However, the background writer does cause a net overall
@@ -1808,7 +1808,7 @@ include_dir 'conf.d'
       
        bgwriter_delay (integer)
        
-        bgwriter_delay configuration parameter
+        bgwriter_delayvarname> configuration parameter
        
        
        
@@ -1816,16 +1816,16 @@ include_dir 'conf.d'
          Specifies the delay between activity rounds for the
          background writer.  In each round the writer issues writes
          for some number of dirty buffers (controllable by the
-         following parameters).  It then sleeps for bgwriter_delay
+         following parameters).  It then sleeps for bgwriter_delayvarname>
          milliseconds, and repeats.  When there are no dirty buffers in the
          buffer pool, though, it goes into a longer sleep regardless of
-         bgwriter_delay.  The default value is 200
-         milliseconds (200ms). Note that on many systems, the
+         bgwriter_delayvarname>.  The default value is 200
+         milliseconds (200msliteral>). Note that on many systems, the
          effective resolution of sleep delays is 10 milliseconds; setting
-         bgwriter_delay to a value that is not a multiple of 10
+         bgwriter_delayvarname> to a value that is not a multiple of 10
          might have the same results as setting it to the next higher multiple
          of 10.  This parameter can only be set in the
-         postgresql.conf file or on the server command line.
+         postgresql.conffilename> file or on the server command line.
         
        
       
@@ -1833,7 +1833,7 @@ include_dir 'conf.d'
       
        bgwriter_lru_maxpages (integer)
        
-        bgwriter_lru_maxpages configuration parameter
+        bgwriter_lru_maxpagesvarname> configuration parameter
        
        
        
@@ -1843,7 +1843,7 @@ include_dir 'conf.d'
          background writing.  (Note that checkpoints, which are managed by
          a separate, dedicated auxiliary process, are unaffected.)
          The default value is 100 buffers.
-         This parameter can only be set in the postgresql.conf
+         This parameter can only be set in the postgresql.conffilename>
          file or on the server command line.
         
        
@@ -1852,7 +1852,7 @@ include_dir 'conf.d'
       
        bgwriter_lru_multiplier (floating point)
        
-        bgwriter_lru_multiplier configuration parameter
+        bgwriter_lru_multipliervarname> configuration parameter
        
        
        
@@ -1860,18 +1860,18 @@ include_dir 'conf.d'
          The number of dirty buffers written in each round is based on the
          number of new buffers that have been needed by server processes
          during recent rounds.  The average recent need is multiplied by
-         bgwriter_lru_multiplier to arrive at an estimate of the
+         bgwriter_lru_multipliervarname> to arrive at an estimate of the
          number of buffers that will be needed during the next round.  Dirty
          buffers are written until there are that many clean, reusable buffers
-         available.  (However, no more than bgwriter_lru_maxpages
+         available.  (However, no more than bgwriter_lru_maxpagesvarname>
          buffers will be written per round.)
-         Thus, a setting of 1.0 represents a just in time policy
+         Thus, a setting of 1.0 represents a just in timequote> policy
          of writing exactly the number of buffers predicted to be needed.
          Larger values provide some cushion against spikes in demand,
          while smaller values intentionally leave writes to be done by
          server processes.
          The default is 2.0.
-         This parameter can only be set in the postgresql.conf
+         This parameter can only be set in the postgresql.conffilename>
          file or on the server command line.
         
        
@@ -1880,7 +1880,7 @@ include_dir 'conf.d'
       
        bgwriter_flush_after (integer)
        
-        bgwriter_flush_after configuration parameter
+        bgwriter_flush_aftervarname> configuration parameter
        
        
        
@@ -1897,10 +1897,10 @@ include_dir 'conf.d'
          cache, where performance might degrade.  This setting may have no
          effect on some platforms.  The valid range is between
          0, which disables forced writeback, and
-         2MB.  The default is 512kB on Linux,
-         0 elsewhere.  (If BLCKSZ is not 8kB,
+         2MB.  The default is 512kBliteral> on Linux,
+         0literal> elsewhere.  (If BLCKSZ is not 8kB,
          the default and maximum values scale proportionally to it.)
-         This parameter can only be set in the postgresql.conf
+         This parameter can only be set in the postgresql.conffilename>
          file or on the server command line.
         
        
@@ -1923,15 +1923,15 @@ include_dir 'conf.d'
       
        effective_io_concurrency (integer)
        
-        effective_io_concurrency configuration parameter
+        effective_io_concurrencyvarname> configuration parameter
        
        
        
         
          Sets the number of concurrent disk I/O operations that
-         PostgreSQL expects can be executed
+         PostgreSQLproductname> expects can be executed
          simultaneously.  Raising this value will increase the number of I/O
-         operations that any individual PostgreSQL session
+         operations that any individual PostgreSQLproductname> session
          attempts to initiate in parallel.  The allowed range is 1 to 1000,
          or zero to disable issuance of asynchronous I/O requests. Currently,
          this setting only affects bitmap heap scans.
@@ -1951,7 +1951,7 @@ include_dir 'conf.d'
         
 
         
-         Asynchronous I/O depends on an effective posix_fadvise
+         Asynchronous I/O depends on an effective posix_fadvisefunction>
          function, which some operating systems lack.  If the function is not
          present then setting this parameter to anything but zero will result
          in an error.  On some operating systems (e.g., Solaris), the function
@@ -1970,7 +1970,7 @@ include_dir 'conf.d'
       
        max_worker_processes (integer)
        
-        max_worker_processes configuration parameter
+        max_worker_processesvarname> configuration parameter
        
        
        
@@ -1997,7 +1997,7 @@ include_dir 'conf.d'
       
        max_parallel_workers_per_gather (integer)
        
-        max_parallel_workers_per_gather configuration parameter
+        max_parallel_workers_per_gathervarname> configuration parameter
        
        
        
@@ -2021,7 +2021,7 @@ include_dir 'conf.d'
          account when choosing a value for this setting, as well as when
          configuring other settings that control resource utilization, such
          as .  Resource limits such as
-         work_mem are applied individually to each worker,
+         work_memvarname> are applied individually to each worker,
          which means the total utilization may be much higher across all
          processes than it would normally be for any single process.
          For example, a parallel query using 4 workers may use up to 5 times
@@ -2039,7 +2039,7 @@ include_dir 'conf.d'
       
        max_parallel_workers (integer)
        
-        max_parallel_workers configuration parameter
+        max_parallel_workersvarname> configuration parameter
        
        
        
@@ -2059,7 +2059,7 @@ include_dir 'conf.d'
       
        backend_flush_after (integer)
        
-        backend_flush_after configuration parameter
+        backend_flush_aftervarname> configuration parameter
        
        
        
@@ -2076,7 +2076,7 @@ include_dir 'conf.d'
          than the OS's page cache, where performance might degrade.  This
          setting may have no effect on some platforms.  The valid range is
          between 0, which disables forced writeback,
-         and 2MB.  The default is 0, i.e., no
+         and 2MB.  The default is 0literal>, i.e., no
          forced writeback.  (If BLCKSZ is not 8kB,
          the maximum value scales proportionally to it.)
         
@@ -2086,13 +2086,13 @@ include_dir 'conf.d'
       
        old_snapshot_threshold (integer)
        
-        old_snapshot_threshold configuration parameter
+        old_snapshot_thresholdvarname> configuration parameter
        
        
        
         
          Sets the minimum time that a snapshot can be used without risk of a
-         snapshot too old error occurring when using the snapshot.
+         snapshot too oldliteral> error occurring when using the snapshot.
          This parameter can only be set at server start.
         
 
@@ -2107,12 +2107,12 @@ include_dir 'conf.d'
         
 
         
-         A value of -1 disables this feature, and is the default.
+         A value of -1literal> disables this feature, and is the default.
          Useful values for production work probably range from a small number
          of hours to a few days.  The setting will be coerced to a granularity
-         of minutes, and small numbers (such as 0 or
-         1min) are only allowed because they may sometimes be
-         useful for testing.  While a setting as high as 60d is
+         of minutes, and small numbers (such as 0literal> or
+         1minliteral>) are only allowed because they may sometimes be
+         useful for testing.  While a setting as high as 60dliteral> is
          allowed, please note that in many workloads extreme bloat or
          transaction ID wraparound may occur in much shorter time frames.
         
@@ -2120,10 +2120,10 @@ include_dir 'conf.d'
         
          When this feature is enabled, freed space at the end of a relation
          cannot be released to the operating system, since that could remove
-         information needed to detect the snapshot too old
+         information needed to detect the snapshot too oldliteral>
          condition.  All space allocated to a relation remains associated with
          that relation for reuse only within that relation unless explicitly
-         freed (for example, with VACUUM FULL).
+         freed (for example, with VACUUM FULLcommand>).
         
 
         
@@ -2135,7 +2135,7 @@ include_dir 'conf.d'
          Some tables cannot safely be vacuumed early, and so will not be
          affected by this setting, such as system catalogs.  For such tables
          this setting will neither reduce bloat nor create a possibility
-         of a snapshot too old error on scanning.
+         of a snapshot too oldliteral> error on scanning.
         
        
       
@@ -2158,45 +2158,45 @@ include_dir 'conf.d'
      
       wal_level (enum)
       
-       wal_level configuration parameter
+       wal_levelvarname> configuration parameter
       
       
       
        
-        wal_level determines how much information is written to
-        the WAL. The default value is replica, which writes enough
+        wal_levelvarname> determines how much information is written to
+        the WAL. The default value is replicaliteral>, which writes enough
         data to support WAL archiving and replication, including running
-        read-only queries on a standby server. minimal removes all
+        read-only queries on a standby server. minimalliteral> removes all
         logging except the information required to recover from a crash or
         immediate shutdown.  Finally,
-        logical adds information necessary to support logical
+        logicalliteral> adds information necessary to support logical
         decoding.  Each level includes the information logged at all lower
         levels.  This parameter can only be set at server start.
        
        
-        In minimal level, WAL-logging of some bulk
+        In minimalliteral> level, WAL-logging of some bulk
         operations can be safely skipped, which can make those
         operations much faster (see ).
         Operations in which this optimization can be applied include:
         
-         CREATE TABLE AS
-         CREATE INDEX
-         CLUSTER
-         COPY into tables that were created or truncated in the same
+         CREATE TABLE AScommand>
+         CREATE INDEXcommand>
+         CLUSTERcommand>
+         COPYcommand> into tables that were created or truncated in the same
          transaction
         
         But minimal WAL does not contain enough information to reconstruct the
-        data from a base backup and the WAL logs, so replica or
+        data from a base backup and the WAL logs, so replicaliteral> or
         higher must be used to enable WAL archiving
         () and streaming replication.
        
        
-        In logical level, the same information is logged as
-        with replica, plus information needed to allow
+        In logicalliteral> level, the same information is logged as
+        with replicaliteral>, plus information needed to allow
         extracting logical change sets from the WAL. Using a level of
-        logical will increase the WAL volume, particularly if many
+        logicalliteral> will increase the WAL volume, particularly if many
         tables are configured for REPLICA IDENTITY FULL and
-        many UPDATE> and DELETE> statements are
+        many UPDATEcommand> and DELETE> statements are
         executed.
        
        
@@ -2210,14 +2210,14 @@ include_dir 'conf.d'
      
       fsync (boolean)
       
-       fsync configuration parameter
+       fsyncvarname> configuration parameter
       
       
       
        
-        If this parameter is on, the PostgreSQL server
+        If this parameter is on, the PostgreSQLproductname> server
         will try to make sure that updates are physically written to
-        disk, by issuing fsync() system calls or various
+        disk, by issuing fsync()function> system calls or various
         equivalent methods (see ).
         This ensures that the database cluster can recover to a
         consistent state after an operating system or hardware crash.
@@ -2249,7 +2249,7 @@ include_dir 'conf.d'
         off to on, it is necessary to force all modified buffers in the
         kernel to durable storage.  This can be done while the cluster
         is shutdown or while fsync is on by running initdb
-        --sync-only, running sync, unmounting the
+        --sync-only, running synccommand>, unmounting the
         file system, or rebooting the server.
        
 
@@ -2261,7 +2261,7 @@ include_dir 'conf.d'
        
 
        
-        fsync can only be set in the postgresql.conf
+        fsync can only be set in the postgresql.conffilename>
         file or on the server command line.
         If you turn this parameter off, also consider turning off
         .
@@ -2272,26 +2272,26 @@ include_dir 'conf.d'
      
       synchronous_commit (enum)
       
-       synchronous_commit configuration parameter
+       synchronous_commitvarname> configuration parameter
       
       
       
        
         Specifies whether transaction commit will wait for WAL records
-        to be written to disk before the command returns a success
-        indication to the client.  Valid values are on,
-        remote_apply>, remote_write, local>,
-        and off.  The default, and safe, setting
-        is on>.  When off>, there can be a delay between
+        to be written to disk before the command returns a successquote>
+        indication to the client.  Valid values are onliteral>,
+        remote_applyliteral>, remote_writelocal>,
+        and offliteral>.  The default, and safe, setting
+        is onliteral>.  When off>, there can be a delay between
         when success is reported to the client and when the transaction is
         really guaranteed to be safe against a server crash.  (The maximum
         delay is three times .)  Unlike
-        , setting this parameter to off
+        , setting this parameter to offliteral>
         does not create any risk of database inconsistency: an operating
         system or database crash might
         result in some recent allegedly-committed transactions being lost, but
         the database state will be just the same as if those transactions had
-        been aborted cleanly.  So, turning synchronous_commit off
+        been aborted cleanly.  So, turning synchronous_commitvarname> off
         can be a useful alternative when performance is more important than
         exact certainty about the durability of a transaction.  For more
         discussion see .
@@ -2300,32 +2300,32 @@ include_dir 'conf.d'
         If  is non-empty, this
         parameter also controls whether or not transaction commits will wait
         for their WAL records to be replicated to the standby server(s).
-        When set to on, commits will wait until replies
+        When set to onliteral>, commits will wait until replies
         from the current synchronous standby(s) indicate they have received
         the commit record of the transaction and flushed it to disk.  This
         ensures the transaction will not be lost unless both the primary and
         all synchronous standbys suffer corruption of their database storage.
-        When set to remote_apply, commits will wait until replies
+        When set to remote_applyliteral>, commits will wait until replies
         from the current synchronous standby(s) indicate they have received the
         commit record of the transaction and applied it, so that it has become
         visible to queries on the standby(s).
-        When set to remote_write, commits will wait until replies
+        When set to remote_writeliteral>, commits will wait until replies
         from the current synchronous standby(s) indicate they have
         received the commit record of the transaction and written it out to
         their operating system. This setting is sufficient to
         ensure data preservation even if a standby instance of
-        PostgreSQL were to crash, but not if the standby
+        PostgreSQLproductname> were to crash, but not if the standby
         suffers an operating-system-level crash, since the data has not
         necessarily reached stable storage on the standby.
-        Finally, the setting local causes commits to wait for
+        Finally, the setting localliteral> causes commits to wait for
         local flush to disk, but not for replication.  This is not usually
         desirable when synchronous replication is in use, but is provided for
         completeness.
        
        
-        If synchronous_standby_names is empty, the settings
-        on>, remote_apply, remote_write>
-        and local all provide the same synchronization level:
+        If synchronous_standby_namesvarname> is empty, the settings
+        onliteral>, remote_applyremote_write>
+        and localliteral> all provide the same synchronization level:
         transaction commits only wait for local flush to disk.
        
        
@@ -2335,7 +2335,7 @@ include_dir 'conf.d'
         transactions commit synchronously and others asynchronously.
         For example, to make a single multistatement transaction commit
         asynchronously when the default is the opposite, issue SET
-        LOCAL synchronous_commit TO OFF within the transaction.
+        LOCAL synchronous_commit TO OFFcommand> within the transaction.
        
       
      
@@ -2343,7 +2343,7 @@ include_dir 'conf.d'
      
       wal_sync_method (enum)
       
-       wal_sync_method configuration parameter
+       wal_sync_methodvarname> configuration parameter
       
       
       
@@ -2356,41 +2356,41 @@ include_dir 'conf.d'
        
         
         
-         open_datasync> (write WAL files with open() option O_DSYNC>)
+         open_datasyncliteral> (write WAL files with open() option O_DSYNC>)
         
         
         
         
-         fdatasync> (call fdatasync()> at each commit)
+         fdatasyncliteral> (call fdatasync()> at each commit)
         
         
         
         
-         fsync> (call fsync()> at each commit)
+         fsyncliteral> (call fsync()> at each commit)
         
         
         
         
-         fsync_writethrough> (call fsync()> at each commit, forcing write-through of any disk write cache)
+         fsync_writethroughliteral> (call fsync()> at each commit, forcing write-through of any disk write cache)
         
         
         
         
-         open_sync> (write WAL files with open() option O_SYNC>)
+         open_syncliteral> (write WAL files with open() option O_SYNC>)
         
         
        
        
-        The open_>* options also use O_DIRECT> if available.
+        The open_literal>* options also use O_DIRECT> if available.
         Not all of these choices are available on all platforms.
         The default is the first method in the above list that is supported
-        by the platform, except that fdatasync is the default on
+        by the platform, except that fdatasyncliteral> is the default on
         Linux.  The default is not necessarily ideal; it might be
         necessary to change this setting or other aspects of your system
         configuration in order to create a crash-safe configuration or
         achieve optimal performance.
         These aspects are discussed in .
-        This parameter can only be set in the postgresql.conf
+        This parameter can only be set in the postgresql.conffilename>
         file or on the server command line.
        
       
@@ -2399,12 +2399,12 @@ include_dir 'conf.d'
      
       full_page_writes (boolean)
       
-       full_page_writes configuration parameter
+       full_page_writesvarname> configuration parameter
       
       
       
        
-        When this parameter is on, the PostgreSQL server
+        When this parameter is on, the PostgreSQLproductname> server
         writes the entire content of each disk page to WAL during the
         first modification of that page after a checkpoint.
         This is needed because
@@ -2436,9 +2436,9 @@ include_dir 'conf.d'
        
 
        
-        This parameter can only be set in the postgresql.conf
+        This parameter can only be set in the postgresql.conffilename>
         file or on the server command line.
-        The default is on.
+        The default is onliteral>.
        
       
      
@@ -2446,12 +2446,12 @@ include_dir 'conf.d'
      
       wal_log_hints (boolean)
       
-       wal_log_hints configuration parameter
+       wal_log_hintsvarname> configuration parameter
       
       
       
        
-        When this parameter is on>, the PostgreSQL>
+        When this parameter is onliteral>, the PostgreSQL>
         server writes the entire content of each disk page to WAL during the
         first modification of that page after a checkpoint, even for
         non-critical modifications of so-called hint bits.
@@ -2465,7 +2465,7 @@ include_dir 'conf.d'
        
 
        
-        This parameter can only be set at server start. The default value is off.
+        This parameter can only be set at server start. The default value is offliteral>.
        
       
      
@@ -2473,16 +2473,16 @@ include_dir 'conf.d'
      
       wal_compression (boolean)
       
-       wal_compression configuration parameter
+       wal_compressionvarname> configuration parameter
       
       
       
        
-        When this parameter is on>, the PostgreSQL>
+        When this parameter is onliteral>, the PostgreSQL>
         server compresses a full page image written to WAL when
          is on or during a base backup.
         A compressed page image will be decompressed during WAL replay.
-        The default value is off.
+        The default value is offliteral>.
         Only superusers can change this setting.
        
 
@@ -2498,7 +2498,7 @@ include_dir 'conf.d'
      
       wal_buffers (integer)
       
-       wal_buffers configuration parameter
+       wal_buffersvarname> configuration parameter
       
       
       
@@ -2530,24 +2530,24 @@ include_dir 'conf.d'
      
       wal_writer_delay (integer)
       
-       wal_writer_delay configuration parameter
+       wal_writer_delayvarname> configuration parameter
       
       
       
       
         Specifies how often the WAL writer flushes WAL. After flushing WAL it
-        sleeps for wal_writer_delay milliseconds, unless woken up
+        sleeps for wal_writer_delayvarname> milliseconds, unless woken up
         by an asynchronously committing transaction. If the last flush
-        happened less than wal_writer_delay milliseconds ago and
-        less than wal_writer_flush_after bytes of WAL have been
+        happened less than wal_writer_delayvarname> milliseconds ago and
+        less than wal_writer_flush_aftervarname> bytes of WAL have been
         produced since, then WAL is only written to the operating system, not
         flushed to disk.
-        The default value is 200 milliseconds (200ms).  Note that
+        The default value is 200 milliseconds (200msliteral>).  Note that
         on many systems, the effective resolution of sleep delays is 10
-        milliseconds; setting wal_writer_delay to a value that is
+        milliseconds; setting wal_writer_delayvarname> to a value that is
         not a multiple of 10 might have the same results as setting it to the
         next higher multiple of 10. This parameter can only be set in the
-        postgresql.conf file or on the server command line.
+        postgresql.conffilename> file or on the server command line.
        
       
      
@@ -2555,19 +2555,19 @@ include_dir 'conf.d'
      
       wal_writer_flush_after (integer)
       
-       wal_writer_flush_after configuration parameter
+       wal_writer_flush_aftervarname> configuration parameter
       
       
       
       
         Specifies how often the WAL writer flushes WAL. If the last flush
-        happened less than wal_writer_delay milliseconds ago and
-        less than wal_writer_flush_after bytes of WAL have been
+        happened less than wal_writer_delayvarname> milliseconds ago and
+        less than wal_writer_flush_aftervarname> bytes of WAL have been
         produced since, then WAL is only written to the operating system, not
-        flushed to disk.  If wal_writer_flush_after is set
-        to 0 then WAL data is flushed immediately.  The default is
+        flushed to disk.  If wal_writer_flush_aftervarname> is set
+        to 0literal> then WAL data is flushed immediately.  The default is
         1MB. This parameter can only be set in the
-        postgresql.conf file or on the server command line.
+        postgresql.conffilename> file or on the server command line.
        
       
      
@@ -2575,7 +2575,7 @@ include_dir 'conf.d'
      
       commit_delay (integer)
       
-       commit_delay configuration parameter
+       commit_delayvarname> configuration parameter
       
       
       
@@ -2592,15 +2592,15 @@ include_dir 'conf.d'
         commit_siblings other transactions are active
         when a flush is about to be initiated.  Also, no delays are
         performed if fsync is disabled.
-        The default commit_delay is zero (no delay).
+        The default commit_delayvarname> is zero (no delay).
         Only superusers can change this setting.
        
        
-        In PostgreSQL releases prior to 9.3,
+        In PostgreSQLproductname> releases prior to 9.3,
         commit_delay behaved differently and was much
         less effective: it affected only commits, rather than all WAL flushes,
         and waited for the entire configured delay even if the WAL flush
-        was completed sooner.  Beginning in PostgreSQL 9.3,
+        was completed sooner.  Beginning in PostgreSQLproductname> 9.3,
         the first process that becomes ready to flush waits for the configured
         interval, while subsequent processes wait only until the leader
         completes the flush operation.
@@ -2611,13 +2611,13 @@ include_dir 'conf.d'
      
       commit_siblings (integer)
       
-       commit_siblings configuration parameter
+       commit_siblingsvarname> configuration parameter
       
       
       
        
         Minimum number of concurrent open transactions to require
-        before performing the commit_delay delay. A larger
+        before performing the commit_delayvarname> delay. A larger
         value makes it more probable that at least one other
         transaction will become ready to commit during the delay
         interval. The default is five transactions.
@@ -2634,17 +2634,17 @@ include_dir 'conf.d'
      
       checkpoint_timeout (integer)
       
-       checkpoint_timeout configuration parameter
+       checkpoint_timeoutvarname> configuration parameter
       
       
       
        
         Maximum time between automatic WAL checkpoints, in seconds.
         The valid range is between 30 seconds and one day.
-        The default is five minutes (5min).
+        The default is five minutes (5minliteral>).
         Increasing this parameter can increase the amount of time needed
         for crash recovery.
-        This parameter can only be set in the postgresql.conf
+        This parameter can only be set in the postgresql.conffilename>
         file or on the server command line.
        
       
@@ -2653,14 +2653,14 @@ include_dir 'conf.d'
      
       checkpoint_completion_target (floating point)
       
-       checkpoint_completion_target configuration parameter
+       checkpoint_completion_targetvarname> configuration parameter
       
       
       
        
         Specifies the target of checkpoint completion, as a fraction of
         total time between checkpoints. The default is 0.5.
-        This parameter can only be set in the postgresql.conf
+        This parameter can only be set in the postgresql.conffilename>
         file or on the server command line.
        
       
@@ -2669,7 +2669,7 @@ include_dir 'conf.d'
      
       checkpoint_flush_after (integer)
       
-       checkpoint_flush_after configuration parameter
+       checkpoint_flush_aftervarname> configuration parameter
       
       
       
@@ -2686,10 +2686,10 @@ include_dir 'conf.d'
         than the OS's page cache, where performance might degrade.  This
         setting may have no effect on some platforms.  The valid range is
         between 0, which disables forced writeback,
-        and 2MB.  The default is 256kB on
-        Linux, 0 elsewhere.  (If BLCKSZ is not
+        and 2MB.  The default is 256kBliteral> on
+        Linux, 0literal> elsewhere.  (If BLCKSZ is not
         8kB, the default and maximum values scale proportionally to it.)
-        This parameter can only be set in the postgresql.conf
+        This parameter can only be set in the postgresql.conffilename>
         file or on the server command line.
        
       
@@ -2698,7 +2698,7 @@ include_dir 'conf.d'
      
       checkpoint_warning (integer)
       
-       checkpoint_warning configuration parameter
+       checkpoint_warningvarname> configuration parameter
       
       
       
@@ -2706,11 +2706,11 @@ include_dir 'conf.d'
         Write a message to the server log if checkpoints caused by
         the filling of checkpoint segment files happen closer together
         than this many seconds (which suggests that
-        max_wal_size ought to be raised).  The default is
-        30 seconds (30s).  Zero disables the warning.
+        max_wal_sizevarname> ought to be raised).  The default is
+        30 seconds (30sliteral>).  Zero disables the warning.
         No warnings will be generated if checkpoint_timeout
         is less than checkpoint_warning.
-        This parameter can only be set in the postgresql.conf
+        This parameter can only be set in the postgresql.conffilename>
         file or on the server command line.
        
       
@@ -2719,19 +2719,19 @@ include_dir 'conf.d'
      
       max_wal_size (integer)
       
-       max_wal_size configuration parameter
+       max_wal_sizevarname> configuration parameter
       
       
       
        
         Maximum size to let the WAL grow to between automatic WAL
         checkpoints. This is a soft limit; WAL size can exceed
-        max_wal_size under special circumstances, like
-        under heavy load, a failing archive_command, or a high
-        wal_keep_segments setting. The default is 1 GB.
+        max_wal_sizevarname> under special circumstances, like
+        under heavy load, a failing archive_commandvarname>, or a high
+        wal_keep_segmentsvarname> setting. The default is 1 GB.
         Increasing this parameter can increase the amount of time needed for
         crash recovery.
-        This parameter can only be set in the postgresql.conf
+        This parameter can only be set in the postgresql.conffilename>
         file or on the server command line.
        
       
@@ -2740,7 +2740,7 @@ include_dir 'conf.d'
      
       min_wal_size (integer)
       
-       min_wal_size configuration parameter
+       min_wal_sizevarname> configuration parameter
       
       
       
@@ -2750,7 +2750,7 @@ include_dir 'conf.d'
         This can be used to ensure that enough WAL space is reserved to
         handle spikes in WAL usage, for example when running large batch
         jobs. The default is 80 MB.
-        This parameter can only be set in the postgresql.conf
+        This parameter can only be set in the postgresql.conffilename>
         file or on the server command line.
        
       
@@ -2765,29 +2765,29 @@ include_dir 'conf.d'
      
       archive_mode (enum)
       
-       archive_mode configuration parameter
+       archive_modevarname> configuration parameter
       
       
       
        
-        When archive_mode is enabled, completed WAL segments
+        When archive_modevarname> is enabled, completed WAL segments
         are sent to archive storage by setting
-        . In addition to off,
-        to disable, there are two modes: on, and
-        always. During normal operation, there is no
-        difference between the two modes, but when set to always
+        . In addition to offliteral>,
+        to disable, there are two modes: onliteral>, and
+        alwaysliteral>. During normal operation, there is no
+        difference between the two modes, but when set to alwaysliteral>
         the WAL archiver is enabled also during archive recovery or standby
-        mode. In always mode, all files restored from the archive
+        mode. In alwaysliteral> mode, all files restored from the archive
         or streamed with streaming replication will be archived (again). See
          for details.
        
        
-        archive_mode> and archive_command> are
-        separate variables so that archive_command can be
+        archive_modevarname> and archive_command> are
+        separate variables so that archive_commandvarname> can be
         changed without leaving archiving mode.
         This parameter can only be set at server start.
-        archive_mode cannot be enabled when
-        wal_level> is set to minimal>.
+        archive_modevarname> cannot be enabled when
+        wal_levelvarname> is set to minimal>.
        
       
      
@@ -2795,32 +2795,32 @@ include_dir 'conf.d'
      
       archive_command (string)
       
-       archive_command configuration parameter
+       archive_commandvarname> configuration parameter
       
       
       
        
         The local shell command to execute to archive a completed WAL file
-        segment.  Any %p in the string is
+        segment.  Any %pliteral> in the string is
         replaced by the path name of the file to archive, and any
-        %f is replaced by only the file name.
+        %fliteral> is replaced by only the file name.
         (The path name is relative to the working directory of the server,
         i.e., the cluster's data directory.)
-        Use %%> to embed an actual %> character in the
+        Use %%literal> to embed an actual %> character in the
         command.  It is important for the command to return a zero
         exit status only if it succeeds. For more information see
         .
        
        
-        This parameter can only be set in the postgresql.conf
+        This parameter can only be set in the postgresql.conffilename>
         file or on the server command line.  It is ignored unless
-        archive_mode was enabled at server start.
-        If archive_command is an empty string (the default) while
-        archive_mode is enabled, WAL archiving is temporarily
+        archive_modevarname> was enabled at server start.
+        If archive_commandvarname> is an empty string (the default) while
+        archive_modevarname> is enabled, WAL archiving is temporarily
         disabled, but the server continues to accumulate WAL segment files in
         the expectation that a command will soon be provided.  Setting
-        archive_command to a command that does nothing but
-        return true, e.g. /bin/true> (REM> on
+        archive_commandvarname> to a command that does nothing but
+        return true, e.g. /bin/trueliteral> (REM> on
         Windows), effectively disables
         archiving, but also breaks the chain of WAL files needed for
         archive recovery, so it should only be used in unusual circumstances.
@@ -2831,7 +2831,7 @@ include_dir 'conf.d'
      
       archive_timeout (integer)
       
-       archive_timeout configuration parameter
+       archive_timeoutvarname> configuration parameter
       
       
       
@@ -2841,7 +2841,7 @@ include_dir 'conf.d'
         traffic (or has slack periods where it does so), there could be a
         long delay between the completion of a transaction and its safe
         recording in archive storage.  To limit how old unarchived
-        data can be, you can set archive_timeout to force the
+        data can be, you can set archive_timeoutvarname> to force the
         server to switch to a new WAL segment file periodically.  When this
         parameter is greater than zero, the server will switch to a new
         segment file whenever this many seconds have elapsed since the last
@@ -2850,13 +2850,13 @@ include_dir 'conf.d'
         no database activity).  Note that archived files that are closed
         early due to a forced switch are still the same length as completely
         full files.  Therefore, it is unwise to use a very short
-        archive_timeout — it will bloat your archive
-        storage.  archive_timeout settings of a minute or so are
+        archive_timeoutvarname> — it will bloat your archive
+        storage.  archive_timeoutvarname> settings of a minute or so are
         usually reasonable.  You should consider using streaming replication,
         instead of archiving, if you want data to be copied off the master
         server more quickly than that.
         This parameter can only be set in the
-        postgresql.conf file or on the server command line.
+        postgresql.conffilename> file or on the server command line.
        
       
      
@@ -2871,7 +2871,7 @@ include_dir 'conf.d'
 
     
      These settings control the behavior of the built-in
-     streaming replication feature (see
+     streaming replicationfirstterm> feature (see
      ).  Servers will be either a
      Master or a Standby server.  Masters can send data, while Standby(s)
      are always receivers of replicated data.  When cascading replication
@@ -2898,7 +2898,7 @@ include_dir 'conf.d'
       
        max_wal_senders (integer)
        
-        max_wal_senders configuration parameter
+        max_wal_sendersvarname> configuration parameter
        
        
        
@@ -2914,8 +2914,8 @@ include_dir 'conf.d'
         a timeout is reached, so this parameter should be set slightly
         higher than the maximum number of expected clients so disconnected
         clients can immediately reconnect.  This parameter can only
-        be set at server start. wal_level must be set to
-        replica or higher to allow connections from standby
+        be set at server start. wal_levelvarname> must be set to
+        replicaliteral> or higher to allow connections from standby
         servers.
        
        
@@ -2924,7 +2924,7 @@ include_dir 'conf.d'
       
        max_replication_slots (integer)
        
-        max_replication_slots configuration parameter
+        max_replication_slotsvarname> configuration parameter
        
        
        
@@ -2944,17 +2944,17 @@ include_dir 'conf.d'
       
        wal_keep_segments (integer)
        
-        wal_keep_segments configuration parameter
+        wal_keep_segmentsvarname> configuration parameter
        
        
        
        
         Specifies the minimum number of past log file segments kept in the
-        pg_wal
+        pg_walfilename>
         directory, in case a standby server needs to fetch them for streaming
         replication. Each segment is normally 16 megabytes. If a standby
         server connected to the sending server falls behind by more than
-        wal_keep_segments segments, the sending server might remove
+        wal_keep_segmentsvarname> segments, the sending server might remove
         a WAL segment still needed by the standby, in which case the
         replication connection will be terminated.  Downstream connections
         will also eventually fail as a result.  (However, the standby
@@ -2964,15 +2964,15 @@ include_dir 'conf.d'
 
        
         This sets only the minimum number of segments retained in
-        pg_wal; the system might need to retain more segments
+        pg_walfilename>; the system might need to retain more segments
         for WAL archival or to recover from a checkpoint. If
-        wal_keep_segments is zero (the default), the system
+        wal_keep_segmentsvarname> is zero (the default), the system
         doesn't keep any extra segments for standby purposes, so the number
         of old WAL segments available to standby servers is a function of
         the location of the previous checkpoint and status of WAL
         archiving.
         This parameter can only be set in the
-        postgresql.conf file or on the server command line.
+        postgresql.conffilename> file or on the server command line.
        
        
       
@@ -2980,7 +2980,7 @@ include_dir 'conf.d'
      
       wal_sender_timeout (integer)
       
-       wal_sender_timeout configuration parameter
+       wal_sender_timeoutvarname> configuration parameter
       
       
       
@@ -2990,7 +2990,7 @@ include_dir 'conf.d'
         the sending server to detect a standby crash or network outage.
         A value of zero disables the timeout mechanism.  This parameter
         can only be set in
-        the postgresql.conf file or on the server command line.
+        the postgresql.conffilename> file or on the server command line.
         The default value is 60 seconds.
        
       
@@ -2999,13 +2999,13 @@ include_dir 'conf.d'
      
       track_commit_timestamp (boolean)
       
-       track_commit_timestamp configuration parameter
+       track_commit_timestampvarname> configuration parameter
       
       
       
        
         Record commit time of transactions. This parameter
-        can only be set in postgresql.conf file or on the server
+        can only be set in postgresql.conffilename> file or on the server
         command line. The default value is off.
        
       
@@ -3034,13 +3034,13 @@ include_dir 'conf.d'
      
       synchronous_standby_names (string)
       
-       synchronous_standby_names configuration parameter
+       synchronous_standby_namesvarname> configuration parameter
       
       
       
        
         Specifies a list of standby servers that can support
-        synchronous replication, as described in
+        synchronous replicationfirstterm>, as described in
         .
         There will be one or more active synchronous standbys;
         transactions waiting for commit will be allowed to proceed after
@@ -3050,15 +3050,15 @@ include_dir 'conf.d'
         that are both currently connected and streaming data in real-time
         (as shown by a state of streaming in the
         
-        pg_stat_replication view).
+        pg_stat_replicationliteral> view).
         Specifying more than one synchronous standby can allow for very high
         availability and protection against data loss.
        
        
         The name of a standby server for this purpose is the
-        application_name setting of the standby, as set in the
+        application_namevarname> setting of the standby, as set in the
         standby's connection information.  In case of a physical replication
-        standby, this should be set in the primary_conninfo
+        standby, this should be set in the primary_conninfovarname>
         setting in recovery.conf; the default
         is walreceiver.  For logical replication, this can
         be set in the connection information of the subscription, and it
@@ -3078,54 +3078,54 @@ ANY num_sync ( 
         wait for replies from,
         and standby_name
         is the name of a standby server.
-        FIRST> and ANY> specify the method to choose
+        FIRSTliteral> and ANY> specify the method to choose
         synchronous standbys from the listed servers.
        
        
-        The keyword FIRST, coupled with
+        The keyword FIRSTliteral>, coupled with
         num_sync, specifies a
         priority-based synchronous replication and makes transaction commits
         wait until their WAL records are replicated to
         num_sync synchronous