doc: Spell checking
authorPeter Eisentraut
Fri, 16 Jul 2021 08:35:38 +0000 (10:35 +0200)
committerPeter Eisentraut
Fri, 16 Jul 2021 10:39:45 +0000 (12:39 +0200)
13 files changed:
doc/src/sgml/bki.sgml
doc/src/sgml/fdwhandler.sgml
doc/src/sgml/func.sgml
doc/src/sgml/gist.sgml
doc/src/sgml/indexam.sgml
doc/src/sgml/json.sgml
doc/src/sgml/libpq.sgml
doc/src/sgml/logicaldecoding.sgml
doc/src/sgml/monitoring.sgml
doc/src/sgml/pgstatstatements.sgml
doc/src/sgml/ref/alter_table.sgml
doc/src/sgml/ref/psql-ref.sgml
doc/src/sgml/wal.sgml

index f32208b550442fba93d0ada34d94d8f6a4b82edc..f900a01b82424f7c477fd2ce63b79fda8460a6da 100644 (file)
      reformat_dat_file.pl can be adapted to perform
      many kinds of bulk changes.  Look for its block comments showing where
      one-off code can be inserted.  In the following example, we are going
-     to consolidate two boolean fields in pg_proc
+     to consolidate two Boolean fields in pg_proc
      into a char field:
 
      
index d1194def8200ddb172f78e057cedc64e1cad0197..c21fe67eb7a68f479f9cc9a9aab322c2f0bf9a27 100644 (file)
@@ -461,7 +461,7 @@ AddForeignUpdateTargets(PlannerInfo *root,
      vartype = RECORD,
      and wholerowN
      for a whole-row Var with
-     vartype equal to the table's declared rowtype.
+     vartype equal to the table's declared row type.
      Re-use these names when you can (the planner will combine duplicate
      requests for identical junk columns).  If you need another kind of
      junk column besides these, it might be wise to choose a name prefixed
index 6388385edc56f5dea81fe33d5146657216ea910c..ac6347a97115d44d682049caac4206aeff2e164f 100644 (file)
@@ -24954,8 +24954,8 @@ SELECT collation for ('foo' COLLATE "de_DE");
         sending a SIGHUP signal to the postmaster
         process, which in turn sends SIGHUP to each
         of its children.) You can use the
-        pg_file_settings and
-        pg_hba_file_rules views
+        pg_file_settings and
+        pg_hba_file_rules views
         to check the configuration files for possible errors, before reloading.
        
       
index f22efd1f6e898e8bcba192a12fe2a6d56355f3e2..c79ce850e9463ccb7dcfc4d0837c0eec97d98ad9 100644 (file)
@@ -374,8 +374,8 @@ my_consistent(PG_FUNCTION_ARGS)
       
        Depending on which operators you have included in the class, the data
        type of query could vary with the operator, since it will
-       be whatever type is on the righthand side of the operator, which might
-       be different from the indexed data type appearing on the lefthand side.
+       be whatever type is on the right-hand side of the operator, which might
+       be different from the indexed data type appearing on the left-hand side.
        (The above code skeleton assumes that only one type is possible; if
        not, fetching the query argument value would have to depend
        on the operator.)  It is recommended that the SQL declaration of
index ceee5f3580c928164ff4c23e7b655f90fab42d2d..cf359fa9ffd9701541ddbd8accd28120debb8af2 100644 (file)
@@ -310,7 +310,7 @@ aminsert (Relation indexRelation,
   
 
   
-   The indexUnchanged boolean value gives a hint
+   The indexUnchanged Boolean value gives a hint
    about the nature of the tuple to be indexed.  When it is true,
    the tuple is a duplicate of some existing tuple in the index.  The
    new tuple is a logically unchanged successor MVCC tuple version.  This
@@ -493,7 +493,7 @@ amproperty (Oid index_oid, int attno,
    code, it's better to inspect prop.
    If the amproperty method returns true then
    it has determined the property test result: it must set *res
-   to the boolean value to return, or set *isnull
+   to the Boolean value to return, or set *isnull
    to true to return a NULL.  (Both of the referenced variables
    are initialized to false before the call.)
    If the amproperty method returns false then
index 1b5103e2694b5b5dca2a86bd5305b17324f09821..673c70c3bb85f240754be9e9dc77090eb5870700 100644 (file)
@@ -617,7 +617,7 @@ SELECT jdoc->'guid', jdoc->'name' FROM api WHERE jdoc @> '{"tags": ["qu
   
    UPDATE statements may use subscripting in the
    SET clause to modify jsonb values. Subscript
-   paths must be traversible for all affected values insofar as they exist. For
+   paths must be traversable for all affected values insofar as they exist. For
    instance, the path val['a']['b']['c'] can be traversed all
    the way to c if every val,
    val['a'], and val['a']['b'] is an
index 2e4f615a6591b80d382771b7fddfb71d26cae83e..56689ba8730ec106290ebf84d2e13d6e3553c4f7 100644 (file)
@@ -1719,7 +1719,7 @@ postgresql://%2Fvar%2Flib%2Fpostgresql/dbname
         There is no environment variable equivalent to this option, and no
         facility for looking it up in .pgpass. It can be
         used in a service file connection definition. Users with
-        more sophisticated uses should consider using openssl engines and
+        more sophisticated uses should consider using OpenSSL engines and
         tools like PKCS#11 or USB crypto offload devices.
        
       
@@ -5032,7 +5032,7 @@ int PQflush(PGconn *conn);
   
    While the pipeline API was introduced in
    PostgreSQL 14, it is a client-side feature
-   which doesn't require special server support, and works on any server
+   which doesn't require special server support and works on any server
    that supports the v3 extended query protocol.
   
 
@@ -5451,8 +5451,8 @@ int PQsendFlushRequest(PGconn *conn);
     are being performed in rapid succession.  There is usually less benefit
     in using pipelined commands when each query takes many multiples of the client/server
     round-trip time to execute.  A 100-statement operation run on a server
-    300ms round-trip-time away would take 30 seconds in network latency alone
-    without pipelining; with pipelining it may spend as little as 0.3s waiting for
+    300 ms round-trip-time away would take 30 seconds in network latency alone
+    without pipelining; with pipelining it may spend as little as 0.3 s waiting for
     results from the server.
    
 
@@ -7109,9 +7109,9 @@ defaultNoticeProcessor(void *arg, const char *message)
   
    Each registered event handler is associated with two pieces of data,
    known to libpq only as opaque void *
-   pointers.  There is a passthrough pointer that is provided
+   pointers.  There is a pass-through pointer that is provided
    by the application when the event handler is registered with a
-   PGconn.  The passthrough pointer never changes for the
+   PGconn.  The pass-through pointer never changes for the
    life of the PGconn and all PGresults
    generated from it; so if used, it must point to long-lived data.
    In addition there is an instance data pointer, which starts
@@ -7121,9 +7121,9 @@ defaultNoticeProcessor(void *arg, const char *message)
    ,
     and
    PQsetResultInstanceData functions.  Note that
-   unlike the passthrough pointer, instance data of a PGconn
+   unlike the pass-through pointer, instance data of a PGconn
    is not automatically inherited by PGresults created from
-   it.  libpq does not know what passthrough
+   it.  libpq does not know what pass-through
    and instance data pointers point to (if anything) and will never attempt
    to free them — that is the responsibility of the event handler.
   
index 002efc86b433f386ff743d7eedf3825f7d90b9b6..89b8090b79f3a42d71224c09e16a9d4b416b6634 100644 (file)
@@ -1251,7 +1251,7 @@ stream_commit_cb(...);  <-- commit of the streamed transaction
     Similar to spill-to-disk behavior, streaming is triggered when the total
     amount of changes decoded from the WAL (for all in-progress transactions)
     exceeds the limit defined by logical_decoding_work_mem setting.
-    At that point, the largest toplevel transaction (measured by the amount of memory
+    At that point, the largest top-level transaction (measured by the amount of memory
     currently used for decoded changes) is selected and streamed.  However, in
     some cases we still have to spill to disk even if streaming is enabled
     because we exceed the memory threshold but still have not decoded the
index 643e1ad49fd887e540dae59d9b51ed209aafefaf..74a58a916c15ae8fe64e69e0e20cbc8c442c8288 100644 (file)
@@ -2647,7 +2647,7 @@ SELECT pid, wait_event_type, wait_event FROM pg_stat_activity WHERE wait_event i
         Number of transactions spilled to disk once the memory used by
         logical decoding to decode changes from WAL has exceeded
         logical_decoding_work_mem. The counter gets
-        incremented for both toplevel transactions and subtransactions.
+        incremented for both top-level transactions and subtransactions.
       
      
 
@@ -2684,7 +2684,7 @@ SELECT pid, wait_event_type, wait_event FROM pg_stat_activity WHERE wait_event i
         plugin after the memory used by logical decoding to decode changes
         from WAL for this slot has exceeded
         logical_decoding_work_mem. Streaming only
-        works with toplevel transactions (subtransactions can't be streamed
+        works with top-level transactions (subtransactions can't be streamed
         independently), so the counter is not incremented for subtransactions.
        
      
@@ -2720,7 +2720,7 @@ SELECT pid, wait_event_type, wait_event FROM pg_stat_activity WHERE wait_event i
        
        
         Number of decoded transactions sent to the decoding output plugin for
-        this slot. This counts toplevel transactions only, and is not incremented
+        this slot. This counts top-level transactions only, and is not incremented
         for subtransactions. Note that this includes the transactions that are
         streamed and/or spilled.
        
index 542b197282cdcc4f206d297f4f39bde7822f06cd..70b28a92c107a8754c26cb877697986882b2a575 100644 (file)
@@ -43,7 +43,7 @@
    The statistics gathered by the module are made available via a
    view named pg_stat_statements.  This view
    contains one row for each distinct combination of database ID, user
-   ID, query ID and whether it's a top level statement or not (up to
+   ID, query ID and whether it's a top-level statement or not (up to
    the maximum number of distinct statements that the module can track).
    The columns of the view are shown in
    .
@@ -89,7 +89,7 @@
        toplevel bool
       
       
-       True if the query was executed as a top level statement
+       True if the query was executed as a top-level statement
        (always true if pg_stat_statements.track is set to
        top)
       
index c5e5e84e06bd78c3f56ee069942d716646c81645..1c7f48938bc6783deaa8771c94ddecec3d816e5e 100644 (file)
@@ -1002,7 +1002,7 @@ WITH ( MODULUS numeric_literal, REM
      
      
       If FINALIZE is specified, a previous
-      DETACH CONCURRENTLY invocation that was cancelled or
+      DETACH CONCURRENTLY invocation that was canceled or
       interrupted is completed.
       At most one partition in a partitioned table can be pending detach at
       a time.
index da5330685727e2330c8634da1d6301e67cc297b8..fcab5c0d51a237a69f2f026028ab38979e2ac133 100644 (file)
@@ -2430,7 +2430,7 @@ hello 10
         
         
         The \if and \elif commands read
-        their argument(s) and evaluate them as a boolean expression.  If the
+        their argument(s) and evaluate them as a Boolean expression.  If the
         expression yields true then processing continues
         normally; otherwise, lines are skipped until a
         matching \elif\else,
index 60f066d247390c4f50fa3ef8a74b5e4b001cec69..24e1c89503cbc12ef9aba4a92fb0f1152af01431 100644 (file)
    WAL logs are stored in the directory
    pg_wal under the data directory, as a set of
    segment files, normally each 16 MB in size (but the size can be changed
-   by altering the  initdb option).  Each segment is
+   by altering the  initdb option).  Each segment is
    divided into pages, normally 8 kB each (this size can be changed via the
     configure option).  The log record headers
    are described in access/xlogrecord.h; the record