doc: use wording "restore" instead of "reload" of dumps
authorBruce Momjian
Thu, 21 Jul 2022 18:55:23 +0000 (14:55 -0400)
committerBruce Momjian
Thu, 21 Jul 2022 18:55:23 +0000 (14:55 -0400)
Reported-by: [email protected]
Discussion: https://postgr.es/m/164736074430.660.3645615289283943146@wrigleys.postgresql.org

Backpatch-through: 11

13 files changed:
doc/src/sgml/ddl.sgml
doc/src/sgml/extend.sgml
doc/src/sgml/perform.sgml
doc/src/sgml/plhandler.sgml
doc/src/sgml/ref/alter_type.sgml
doc/src/sgml/ref/create_domain.sgml
doc/src/sgml/ref/pg_dump.sgml
doc/src/sgml/ref/pg_dumpall.sgml
doc/src/sgml/ref/pg_resetwal.sgml
doc/src/sgml/ref/pg_restore.sgml
doc/src/sgml/ref/pgupgrade.sgml
doc/src/sgml/runtime.sgml
doc/src/sgml/textsearch.sgml

index c358bff56d952cf733e0bdfbbccac343505b9cf3..c85e92b3a2f0cd1db4ad87803d42432fddd3d509 100644 (file)
@@ -557,7 +557,7 @@ CREATE TABLE products (
      tests, it cannot guarantee that the database will not reach a state
      in which the constraint condition is false (due to subsequent changes
      of the other row(s) involved).  This would cause a database dump and
-     reload to fail.  The reload could fail even when the complete
+     restore to fail.  The restore could fail even when the complete
      database state is consistent with the constraint, due to rows not
      being loaded in an order that will satisfy the constraint.  If
      possible, use UNIQUEEXCLUDE,
@@ -569,10 +569,10 @@ CREATE TABLE products (
      If what you desire is a one-time check against other rows at row
      insertion, rather than a continuously-maintained consistency
      guarantee, a custom trigger can be used
-     to implement that.  (This approach avoids the dump/reload problem because
+     to implement that.  (This approach avoids the dump/restore problem because
      pg_dump does not reinstall triggers until after
-     reloading data, so that the check will not be enforced during a
-     dump/reload.)
+     restoring data, so that the check will not be enforced during a
+     dump/restore.)
     
    
 
@@ -594,7 +594,7 @@ CREATE TABLE products (
      function.  PostgreSQL does not disallow
      that, but it will not notice if there are rows in the table that now
      violate the CHECK constraint. That would cause a
-     subsequent database dump and reload to fail.
+     subsequent database dump and restore to fail.
      The recommended way to handle such a change is to drop the constraint
      (using ALTER TABLE), adjust the function definition,
      and re-add the constraint, thereby rechecking it against all table rows.
index e928894726c8f96b6fc32f81253f62a4953f999c..3f4f080ede21521490730ca8f9254a02382d5cac 100644 (file)
@@ -982,7 +982,7 @@ SET LOCAL search_path TO @extschema@, pg_temp;
      pg_dump.  But that behavior is undesirable for a
      configuration table; any data changes made by the user need to be
      included in dumps, or the extension will behave differently after a dump
-     and reload.
+     and restore.
     
 
    
index 9cf8ebea8088ce1347591dd4d2fa71d42947b654..749d469374467c157ad3b83e70afd6a641b0f2e4 100644 (file)
@@ -1785,7 +1785,7 @@ SELECT * FROM x, y, a, b, c WHERE something AND somethingelse;
 
    
     Dump scripts generated by pg_dump automatically apply
-    several, but not all, of the above guidelines.  To reload a
+    several, but not all, of the above guidelines.  To restore a
     pg_dump dump as quickly as possible, you need to
     do a few extra things manually.  (Note that these points apply while
     restoring a dump, not while creating it.
index 40ee59de9f3417d195516a6aa7e97e3e5788e1ab..980c95ecf39ee465496a7f723c3c44a75fbd1834 100644 (file)
     attached to a function when check_function_bodies is on.
     Therefore, checks whose results might be affected by GUC parameters
     definitely should be skipped when check_function_bodies is
-    off, to avoid false failures when reloading a dump.
+    off, to avoid false failures when restoring a dump.
    
 
    
index 21887e88a0f2e1d0e674a4514bb538582d0b4a82..146065144f5338b28f319203a53323aeac7268cf 100644 (file)
@@ -411,7 +411,7 @@ ALTER TYPE name SET ( 
    around since the original creation of the enum type).  The slowdown is
    usually insignificant; but if it matters, optimal performance can be
    regained by dropping and recreating the enum type, or by dumping and
-   reloading the database.
+   restoring the database.
   
  
 
index e4b856d630cdbde604427e76b2234be3cd3efb9f..82a0b87492932b55ab72d3b82b314cd19c5aa274 100644 (file)
@@ -234,7 +234,7 @@ INSERT INTO tab (domcol) VALUES ((SELECT domcol FROM tab WHERE false));
    function.  PostgreSQL does not disallow that,
    but it will not notice if there are stored values of the domain type that
    now violate the CHECK constraint. That would cause a
-   subsequent database dump and reload to fail.  The recommended way to
+   subsequent database dump and restore to fail.  The recommended way to
    handle such a change is to drop the constraint (using ALTER
    DOMAIN), adjust the function definition, and re-add the
    constraint, thereby rechecking it against stored data.
index b6b66bf068c51917df8d4bbbab3b20d7ea9a1f5e..9f70a88a7ac4aec3151f7458cfb5ddecfd81d37a 100644 (file)
@@ -694,7 +694,7 @@ PostgreSQL documentation
         ...).  This will make restoration very slow; it is mainly
         useful for making dumps that can be loaded into
         non-PostgreSQL databases.
-        Any error during reloading will cause only rows that are part of the
+        Any error during restoring will cause only rows that are part of the
         problematic INSERT to be lost, rather than the
         entire table contents.
        
@@ -718,9 +718,9 @@ PostgreSQL documentation
         This option is relevant only when creating a data-only dump.
         It instructs pg_dump to include commands
         to temporarily disable triggers on the target tables while
-        the data is reloaded.  Use this if you have referential
+        the data is restored.  Use this if you have referential
         integrity checks or other triggers on the tables that you
-        do not want to invoke during data reload.
+        do not want to invoke during data restore.
        
 
        
@@ -838,7 +838,7 @@ PostgreSQL documentation
         than COPY).  This will make restoration very slow;
         it is mainly useful for making dumps that can be loaded into
         non-PostgreSQL databases.
-        Any error during reloading will cause only rows that are part of the
+        Any error during restoring will cause only rows that are part of the
         problematic INSERT to be lost, rather than the
         entire table contents.  Note that the restore might fail altogether if
         you have rearranged column order.  The
@@ -857,7 +857,7 @@ PostgreSQL documentation
         target the root of the partitioning hierarchy that contains it, rather
         than the partition itself.  This causes the appropriate partition to
         be re-determined for each row when the data is loaded.  This may be
-        useful when reloading data on a server where rows do not always fall
+        useful when restoring data on a server where rows do not always fall
         into the same partitions as they did on the original server.  That
         could happen, for example, if the partitioning column is of type text
         and the two systems have different definitions of the collation used
@@ -869,7 +869,7 @@ PostgreSQL documentation
         with this option, because pg_restore will
         not know exactly which partition(s) a given archive data item will
         load data into.  This could result in inefficiency due to lock
-        conflicts between parallel jobs, or perhaps even reload failures due
+        conflicts between parallel jobs, or perhaps even restore failures due
         to foreign key constraints being set up before all the relevant data
         is loaded.
        
@@ -1031,7 +1031,7 @@ PostgreSQL documentation
         Dump data as INSERT commands (rather than
         COPY).  Controls the maximum number of rows per
         INSERT command. The value specified must be a
-        number greater than zero.  Any error during reloading will cause only
+        number greater than zero.  Any error during restoring will cause only
         rows that are part of the problematic INSERT to be
         lost, rather than the entire table contents.
        
index ddffbf85edbc0318f370753a9a79364da5d772f8..bedc5a1c9aa45086160167e088c3367e0b7345b2 100644 (file)
@@ -275,9 +275,9 @@ PostgreSQL documentation
         This option is relevant only when creating a data-only dump.
         It instructs pg_dumpall to include commands
         to temporarily disable triggers on the target tables while
-        the data is reloaded.  Use this if you have referential
+        the data is restored.  Use this if you have referential
         integrity checks or other triggers on the tables that you
-        do not want to invoke during data reload.
+        do not want to invoke during data restore.
        
 
        
@@ -354,7 +354,7 @@ PostgreSQL documentation
         target the root of the partitioning hierarchy that contains it, rather
         than the partition itself.  This causes the appropriate partition to
         be re-determined for each row when the data is loaded.  This may be
-        useful when reloading data on a server where rows do not always fall
+        useful when restoring data on a server where rows do not always fall
         into the same partitions as they did on the original server.  That
         could happen, for example, if the partitioning column is of type text
         and the two systems have different definitions of the collation used
@@ -518,7 +518,7 @@ PostgreSQL documentation
         Dump data as INSERT commands (rather than
         COPY).  Controls the maximum number of rows per
         INSERT command. The value specified must be a
-        number greater than zero.  Any error during reloading will cause only
+        number greater than zero.  Any error during restoring will cause only
         rows that are part of the problematic INSERT to be
         lost, rather than the entire table contents.
        
@@ -787,7 +787,7 @@ PostgreSQL documentation
   
 
   
-   To reload database(s) from this file, you can use:
+   To restore database(s) from this file, you can use:
 
 $ psql -f db.out postgres
 
index 3e4882cdc65dd82d1a1c548d530c7aa007b9ff40..fd539f560433d2f017b47c826ace0d58a4d63102 100644 (file)
@@ -55,7 +55,7 @@ PostgreSQL documentation
    After running this command, it should be possible to start the server,
    but bear in mind that the database might contain inconsistent data due to
    partially-committed transactions.  You should immediately dump your data,
-   run initdb, and reload.  After reload, check for
+   run initdb, and restore.  After restore, check for
    inconsistencies and repair as needed.
   
 
@@ -78,7 +78,7 @@ PostgreSQL documentation
    discussed below. If you are not able to determine correct values for all
    these fields,  can still be used, but
    the recovered database must be treated with even more suspicion than
-   usual: an immediate dump and reload is imperative.  Do not
+   usual: an immediate dump and restore is imperative.  Do not
    execute any data-modifying operations in the database before you dump,
    as any such action is likely to make the corruption worse.
   
index 93ea937ac8ea7e526a0da89a3e712436db8e7155..1b56a4afb36dd59e8ac79f84bd12ce3e589d4969 100644 (file)
@@ -538,9 +538,9 @@ PostgreSQL documentation
         This option is relevant only when performing a data-only restore.
         It instructs pg_restore to execute commands
         to temporarily disable triggers on the target tables while
-        the data is reloaded.  Use this if you have referential
+        the data is restored.  Use this if you have referential
         integrity checks or other triggers on the tables that you
-        do not want to invoke during data reload.
+        do not want to invoke during data restore.
        
 
        
@@ -958,7 +958,7 @@ CREATE DATABASE foo WITH TEMPLATE template0;
   
 
   
-   To reload the dump into a new database called newdb:
+   To restore the dump into a new database called newdb:
 
 
 $ createdb -T template0 newdb
index 158fa0f311d138e305d5729c71ce1b80d4069103..98662102fa7f02de40b132ca88593c8921585a3d 100644 (file)
@@ -39,7 +39,7 @@ PostgreSQL documentation
  
   pg_upgrade (formerly called pg_migrator) allows data
   stored in PostgreSQL data files to be upgraded to a later PostgreSQL
-  major version without the data dump/reload typically required for
+  major version without the data dump/restore typically required for
   major version upgrades, e.g., from 9.5.8 to 9.6.4 or from 10.7 to 11.2.
   It is not required for minor version upgrades, e.g., from 9.6.2 to 9.6.3
   or from 10.1 to 10.2.
@@ -404,7 +404,7 @@ NET STOP postgresql-&majorversion;
 
     
      The  option allows multiple CPU cores to be used
-     for copying/linking of files and to dump and reload database schemas
+     for copying/linking of files and to dump and restore database schemas
      in parallel;  a good place to start is the maximum of the number of
      CPU cores and tablespaces.  This option can dramatically reduce the
      time to upgrade a multi-database server running on a multiprocessor
index cf2630c3fc38aac6cca5415758f557c479763332..375644059db558163761f506df107ffc8b17f0fb 100644 (file)
@@ -1678,7 +1678,7 @@ $ kill -INT `head -1 /usr/local/pgsql/data/postmaster.pid`
    For major releases of PostgreSQL, the
    internal data storage format is subject to change, thus complicating
    upgrades.  The traditional method for moving data to a new major version
-   is to dump and reload the database, though this can be slow.  A
+   is to dump and restore the database, though this can be slow.  A
    faster method is .  Replication methods are
    also available, as discussed below.
    (If you are using a pre-packaged version
@@ -1764,7 +1764,7 @@ $ kill -INT `head -1 /usr/local/pgsql/data/postmaster.pid`
 
    
     One upgrade method is to dump data from one major version of
-    PostgreSQL and reload it in another —  to do
+    PostgreSQL and restore it in another —  to do
     this, you must use a logical backup tool like
     pg_dumpall; file system
     level backup methods will not work. (There are checks in place that prevent
index 6afaf9e62c472c0c1ffcc776885d8e292a65d6a6..fbe049f0636926f7b0f74547b9067cea4eb06217 100644 (file)
@@ -1974,7 +1974,7 @@ CREATE TRIGGER tsvectorupdate BEFORE INSERT OR UPDATE
     explicitly when creating tsvector values inside triggers,
     so that the column's contents will not be affected by changes to
     default_text_search_config.  Failure to do this is likely to
-    lead to problems such as search results changing after a dump and reload.
+    lead to problems such as search results changing after a dump and restore.