Fix some typos, grammar and style in docs and comments
authorMichael Paquier
Wed, 24 Feb 2021 07:13:17 +0000 (16:13 +0900)
committerMichael Paquier
Wed, 24 Feb 2021 07:13:17 +0000 (16:13 +0900)
The portions fixing the documentation are backpatched where needed.

Author: Justin Pryzby
Discussion: https://postgr.es/m/20210210235557[email protected]
backpatch-through: 9.6

30 files changed:
contrib/pageinspect/heapfuncs.c
doc/src/sgml/charset.sgml
doc/src/sgml/extend.sgml
doc/src/sgml/fdwhandler.sgml
doc/src/sgml/logicaldecoding.sgml
doc/src/sgml/pageinspect.sgml
doc/src/sgml/postgres-fdw.sgml
doc/src/sgml/protocol.sgml
doc/src/sgml/ref/alter_subscription.sgml
doc/src/sgml/ref/create_type.sgml
doc/src/sgml/ref/drop_index.sgml
doc/src/sgml/rules.sgml
doc/src/sgml/wal.sgml
src/backend/access/common/heaptuple.c
src/backend/access/transam/xlogutils.c
src/backend/commands/amcmds.c
src/backend/executor/nodeAgg.c
src/backend/optimizer/prep/prepagg.c
src/backend/storage/ipc/procarray.c
src/backend/utils/adt/jsonpath_exec.c
src/backend/utils/adt/selfuncs.c
src/backend/utils/cache/catcache.c
src/bin/pg_rewind/libpq_source.c
src/bin/pgbench/pgbench.c
src/include/pg_config_manual.h
src/interfaces/ecpg/include/sqlda-native.h
src/test/regress/expected/geometry.out
src/test/regress/expected/tuplesort.out
src/test/regress/sql/geometry.sql
src/test/regress/sql/tuplesort.sql

index 9abcee32afbcf19799bea51216f5c8f81cbfb7a5..f6760eb31e798a2973d9e6f8ea702198e437a7a2 100644 (file)
@@ -338,7 +338,7 @@ tuple_data_split_internal(Oid relid, char *tupdata,
        attr = TupleDescAttr(tupdesc, i);
 
        /*
-        * Tuple header can specify less attributes than tuple descriptor as
+        * Tuple header can specify fewer attributes than tuple descriptor as
         * ALTER TABLE ADD COLUMN without DEFAULT keyword does not actually
         * change tuples in pages, so attributes with numbers greater than
         * (t_infomask2 & HEAP_NATTS_MASK) should be treated as NULL.
index cebc09ef91459faafa714b64e223f7020230c5a0..1b00e543a66ff289e044202b5a79c905c3886017 100644 (file)
@@ -619,7 +619,7 @@ SELECT * FROM test1 ORDER BY a || b COLLATE "fr_FR";
     name such as de_DE can be considered unique
     within a given database even though it would not be unique globally.
     Use of the stripped collation names is recommended, since it will
-    make one less thing you need to change if you decide to change to
+    make one fewer thing you need to change if you decide to change to
     another database encoding.  Note however that the default,
     C, and POSIX collations can be used regardless of
     the database encoding.
index 6e3d82b85b804d5388b7dce6cfb3bc5c1764221c..ec95b4eb013653ef41555c677708a62d6316ba96 100644 (file)
      of anycompatible and anycompatiblenonarray
      inputs, the array element types of anycompatiblearray
      inputs, the range subtypes of anycompatiblerange inputs,
-     and the multirange subtypes of anycompatiablemultirange
+     and the multirange subtypes of anycompatiblemultirange
      inputs.  If anycompatiblenonarray is present then the
      common type is required to be a non-array type.  Once a common type is
      identified, arguments in anycompatible
index 2e73d296d24bcdd8473d6e71ee9160d05fc54449..04bc052ee837539432ab7839dd4fa6478dbc7699 100644 (file)
@@ -626,7 +626,7 @@ ExecForeignBatchInsert(EState *estate,
      Insert multiple tuples in bulk into the foreign table.
      The parameters are the same for ExecForeignInsert
      except slots and planSlots contain
-     multiple tuples and *numSlots> specifies the number of
+     multiple tuples and *numSlots specifies the number of
      tuples in those arrays.
     
 
@@ -655,7 +655,7 @@ ExecForeignBatchInsert(EState *estate,
      NULL, attempts to insert into the foreign table will
      use ExecForeignInsert.
      This function is not used if the INSERT has the
-     RETURNING> clause.
+     RETURNING clause.
     
 
     
@@ -672,9 +672,8 @@ GetForeignModifyBatchSize(ResultRelInfo *rinfo);
 
      Report the maximum number of tuples that a single
      ExecForeignBatchInsert call can handle for
-     the specified foreign table.  That is, The executor passes at most
-     the number of tuples that this function returns to
-     ExecForeignBatchInsert.
+     the specified foreign table.  The executor passes at most
+     the given number of tuples to ExecForeignBatchInsert.
      rinfo is the ResultRelInfo struct describing
      the target foreign table.
      The FDW is expected to provide a foreign server and/or foreign
index cf705ed9cda36ece0a06fa104589f725bb56c139..6455664cb4f191ed060ec6ebf77e939780055bcb 100644 (file)
@@ -791,9 +791,9 @@ typedef void (*LogicalDecodeMessageCB) (struct LogicalDecodingContext *ctx,
      
        The optional filter_prepare_cb callback
        is called to determine whether data that is part of the current
-       two-phase commit transaction should be considered for decode
-       at this prepare stage or as a regular one-phase transaction at
-       COMMIT PREPARED time later. To signal that
+       two-phase commit transaction should be considered for decoding
+       at this prepare stage or later as a regular one-phase transaction at
+       COMMIT PREPARED time. To signal that
        decoding should be skipped, return true;
        false otherwise. When the callback is not
        defined, false is assumed (i.e. nothing is
@@ -820,12 +820,12 @@ typedef bool (*LogicalDecodeFilterPrepareCB) (struct LogicalDecodingContext *ctx
       The required begin_prepare_cb callback is called
       whenever the start of a prepared transaction has been decoded. The
       gid field, which is part of the
-      txn parameter can be used in this callback to
-      check if the plugin has already received this prepare in which case it
-      can skip the remaining changes of the transaction. This can only happen
-      if the user restarts the decoding after receiving the prepare for a
-      transaction but before receiving the commit prepared say because of some
-      error.
+      txn parameter, can be used in this callback to
+      check if the plugin has already received this PREPARE
+      in which case it can skip the remaining changes of the transaction.
+      This can only happen if the user restarts the decoding after receiving
+      the PREPARE for a transaction but before receiving
+      the COMMIT PREPARED, say because of some error.
       
        typedef void (*LogicalDecodeBeginPrepareCB) (struct LogicalDecodingContext *ctx,
                                                     ReorderBufferTXN *txn);
@@ -842,7 +842,7 @@ typedef bool (*LogicalDecodeFilterPrepareCB) (struct LogicalDecodingContext *ctx
       decoded. The change_cb callback for all modified
       rows will have been called before this, if there have been any modified
       rows. The gid field, which is part of the
-      txn parameter can be used in this callback.
+      txn parameter, can be used in this callback.
       
        typedef void (*LogicalDecodePrepareCB) (struct LogicalDecodingContext *ctx,
                                                ReorderBufferTXN *txn,
@@ -856,9 +856,9 @@ typedef bool (*LogicalDecodeFilterPrepareCB) (struct LogicalDecodingContext *ctx
 
      
       The required commit_prepared_cb callback is called
-      whenever a transaction commit prepared has been decoded. The
-      gid field, which is part of the
-      txn parameter can be used in this callback.
+      whenever a transaction COMMIT PREPARED has been decoded.
+      The gid field, which is part of the
+      txn parameter, can be used in this callback.
       
        typedef void (*LogicalDecodeCommitPreparedCB) (struct LogicalDecodingContext *ctx,
                                                       ReorderBufferTXN *txn,
@@ -872,15 +872,15 @@ typedef bool (*LogicalDecodeFilterPrepareCB) (struct LogicalDecodingContext *ctx
 
      
       The required rollback_prepared_cb callback is called
-      whenever a transaction rollback prepared has been decoded. The
-      gid field, which is part of the
-      txn parameter can be used in this callback. The
+      whenever a transaction ROLLBACK PREPARED has been
+      decoded. The gid field, which is part of the
+      txn parameter, can be used in this callback. The
       parameters prepare_end_lsn and
       prepare_time can be used to check if the plugin
-      has received this prepare transaction in which case it can apply the
-      rollback, otherwise, it can skip the rollback operation. The
+      has received this PREPARE TRANSACTION in which case
+      it can apply the rollback, otherwise, it can skip the rollback operation. The
       gid alone is not sufficient because the downstream
-      node can have prepared transaction with same identifier.
+      node can have prepared transaction with same identifier.
       
        typedef void (*LogicalDecodeRollbackPreparedCB) (struct LogicalDecodingContext *ctx,
                                                         ReorderBufferTXN *txn,
@@ -1122,7 +1122,8 @@ OutputPluginWrite(ctx, true);
     the stream_commit_cb callback
     (or possibly aborted using the stream_abort_cb callback).
     If two-phase commits are supported, the transaction can be prepared using the
-    stream_prepare_cb callback, commit prepared using the
+    stream_prepare_cb callback,
+    COMMIT PREPARED using the
     commit_prepared_cb callback or aborted using the
     rollback_prepared_cb.
    
@@ -1214,7 +1215,7 @@ stream_commit_cb(...);  <-- commit of the streamed transaction
    
 
    
-    When a prepared transaction is rollbacked using the
+    When a prepared transaction is rolled back using the
     ROLLBACK PREPARED, then the
     rollback_prepared_cb callback is invoked and when the
     prepared transaction is committed using COMMIT PREPARED,
index c733341984843f8c0663123c6e5fa286783625c5..e29eb0783ab8994ee172615943b1ad6a8c0d5791 100644 (file)
@@ -211,7 +211,7 @@ test=# SELECT tuple_data_split('pg_class'::regclass, t_data, t_infomask, t_infom
      
      
       If do_detoast is true,
-      attribute that will be detoasted as needed. Default value is
+      attributes will be detoasted as needed. Default value is
       false.
      
     
index 8d6abd4c54886c3a5835df5ffac6b2069eeb0456..07aa25799daf17133113d490abb02ccfc8369a83 100644 (file)
@@ -553,7 +553,7 @@ postgres=# SELECT postgres_fdw_disconnect('loopback1');
      
       This function discards all the open connections that are established by
       postgres_fdw from the local session to
-      the foreign servers.  If the connections are used in the current local
+      foreign servers.  If the connections are used in the current local
       transaction, they are not disconnected and warning messages are reported.
       This function returns true if it disconnects
       at least one connection, otherwise false.
@@ -585,22 +585,22 @@ postgres=# SELECT postgres_fdw_disconnect_all();
 
   
    When changing the definition of or removing a foreign server or
-   a user mapping, the corresponding connections are closed.
-   But note that if the connections are used in the current local transaction
-   at that moment, they are kept until the end of the transaction.
-   Closed connections will be established again when they are necessary
-   by subsequent queries using a foreign table.
+   a user mapping, the associated connections are closed.
+   But note that if any connections are in use in the current local transaction,
+   they are kept until the end of the transaction.
+   Closed connections will be re-established when they are necessary
+   by future queries using a foreign table.
   
 
   
    Once a connection to a foreign server has been established,
-   it's usually kept until the local or the corresponding remote
+   it's usually kept until the local or corresponding remote
    session exits.  To disconnect a connection explicitly,
    postgres_fdw_disconnect and
    postgres_fdw_disconnect_all functions
-   need to be used.  For example, these are useful when closing
-   the connections that are no longer necessary and then preventing them
-   from consuming the foreign server connections capacity too much.
+   may be used.  For example, these are useful to close
+   connections that are no longer necessary, thereby releasing
+   connections on the foreign server.
   
  
 
index 3763b4b995ff52709592790e3eae23ff29e859de..a51f2c9920b35f0249819c6303451456d46fef0d 100644 (file)
@@ -6928,8 +6928,8 @@ Delete
 
 
 
-                Identifies the following TupleData message as a old tuple.
-                This field is present if the table in which the delete has
+                Identifies the following TupleData message as an old tuple.
+                This field is present if the table in which the delete
                 happened has REPLICA IDENTITY set to FULL.
 
 
index bcb0acf28d8f9cf3433efce17435f7e7778acbd3..0adf68eccafc5b4d2328fac507e91219964794bc 100644 (file)
@@ -56,7 +56,7 @@ ALTER SUBSCRIPTION name RENAME TO <
    allocated for the subscription on the remote host are released. If due to
    network breakdown or some other error, PostgreSQL
    is unable to remove the slots, an ERROR will be reported. To proceed in this
-   situation, either the user need to retry the operation or disassociate the
+   situation, the user either needs to retry the operation or disassociate the
    slot from the subscription and drop the subscription as explained in
    .
   
index 0b24a55505af66d16fbb56b5ad95cec75f05cb18..693423e5243508222907eb1e4ac290cd99aea512 100644 (file)
@@ -867,7 +867,7 @@ CREATE TYPE name
    Before PostgreSQL version 8.3, the name of
    a generated array type was always exactly the element type's name with one
    underscore character (_) prepended.  (Type names were
-   therefore restricted in length to one less character than other names.)
+   therefore restricted in length to one fewer character than other names.)
    While this is still usually the case, the array type name may vary from
    this in case of maximum-length names or collisions with user type names
    that begin with underscore.  Writing code that depends on this convention
index 85cf23bca20aa06219e548aa675b9aab99aa1dc6..b6d2c2014f28e82d6f69aa41e4eb9fb0b931a4c4 100644 (file)
@@ -45,7 +45,7 @@ DROP INDEX [ CONCURRENTLY ] [ IF EXISTS ] name
      
       Drop the index without locking out concurrent selects, inserts, updates,
       and deletes on the index's table.  A normal DROP INDEX
-      acquires exclusive lock on the table, blocking other accesses until the
+      acquires an exclusive lock on the table, blocking other accesses until the
       index drop can be completed.  With this option, the command instead
       waits until conflicting transactions have completed.
      
index e81addcfa9bb961153cd10a2047181bf5dd2b593..aa172d102b6f8dc7141d07622d866d71040bd321 100644 (file)
@@ -1266,7 +1266,7 @@ CREATE [ OR REPLACE ] RULE name AS
 
     The query trees generated from rule actions are thrown into the
     rewrite system again, and maybe more rules get applied resulting
-    in more or less query trees.
+    in additional or fewer query trees.
     So a rule's actions must have either a different
     command type or a different result relation than the rule itself is
     on, otherwise this recursive process will end up in an infinite loop.
index 66de1ee2f81cbf57f3607a997bd67a67812c76c1..02f576a1a99472dc922738b7bf17ea10607a435d 100644 (file)
   
 
   
-   Data pages are not checksum protected by default, but this can optionally be
-   enabled for a cluster.  When enabled, each data page will be assigned a
-   checksum that is updated when the page is written and verified every time
-   the page is read. Only data pages are protected by checksums, internal data
+   By default, data pages are not protected by checksums, but this can optionally be
+   enabled for a cluster.  When enabled, each data page will be ASSIGNED a
+   checksum that is updated when the page is written and verified each time
+   the page is read. Only data pages are protected by checksums; internal data
    structures and temporary files are not.
   
 
   
-   Checksums are normally enabled when the cluster is initialized using 
+   Checksums verification is normally ENABLED when the cluster is initialized using 
    linkend="app-initdb-data-checksums">initdb.
    They can also be enabled or disabled at a later time as an offline
    operation. Data checksums are enabled or disabled at the full cluster
-   level, and cannot be specified individually for databases or tables.
+   level, and cannot be specified for individual databases or tables.
   
 
   
   
 
   
-   When attempting to recover from corrupt data it may be necessary to bypass
-   the checksum protection in order to recover data. To do this, temporarily
-   set the configuration parameter .
+   When attempting to recover from corrupt data, it may be necessary to bypass
+   the checksum protection. To do this, temporarily set the configuration
+   parameter .
   
 
   
index 24a27e387de0c06b7635bca4a4591d33c5fe9a23..0b56b0fa5a91cdc7edb2ea9e95c2d23416a9b76d 100644 (file)
@@ -719,11 +719,11 @@ heap_copytuple_with_tuple(HeapTuple src, HeapTuple dest)
 }
 
 /*
- * Expand a tuple which has less attributes than required. For each attribute
+ * Expand a tuple which has fewer attributes than required. For each attribute
  * not present in the sourceTuple, if there is a missing value that will be
  * used. Otherwise the attribute will be set to NULL.
  *
- * The source tuple must have less attributes than the required number.
+ * The source tuple must have fewer attributes than the required number.
  *
  * Only one of targetHeapTuple and targetMinimalTuple may be supplied. The
  * other argument must be NULL.
index a7a473de4a67979ac30f359f166d91f0bce879db..d17d660f46053e466b843499f54d6576c3d45855 100644 (file)
@@ -433,8 +433,7 @@ XLogReadBufferForRedoExtended(XLogReaderState *record,
  * NB: A redo function should normally not call this directly. To get a page
  * to modify, use XLogReadBufferForRedoExtended instead. It is important that
  * all pages modified by a WAL record are registered in the WAL records, or
- * they will be invisible to tools that that need to know which pages are
- * modified.
+ * they will be invisible to tools that need to know which pages are modified.
  */
 Buffer
 XLogReadBufferExtended(RelFileNode rnode, ForkNumber forknum,
index eff9535ed0eaef7fcff1f5e1f3f3c55de43135fb..188109e474c217652e24553ed70381ec6f196ce6 100644 (file)
@@ -186,7 +186,7 @@ get_am_oid(const char *amname, bool missing_ok)
 }
 
 /*
- * get_am_name - given an access method OID name and type, look up its name.
+ * get_am_name - given an access method OID, look up its name.
  */
 char *
 get_am_name(Oid amOid)
index 1d1bf958b629d6c3b37f3059594b40943d8b7c6e..d80adc519dd7881125204087c266d6c0a9ecb85a 100644 (file)
@@ -2070,8 +2070,7 @@ initialize_hash_entry(AggState *aggstate, TupleHashTable hashtable,
 }
 
 /*
- * Look up hash entries for the current tuple in all hashed grouping sets,
- * returning an array of pergroup pointers suitable for advance_aggregates.
+ * Look up hash entries for the current tuple in all hashed grouping sets.
  *
  * Be aware that lookup_hash_entry can reset the tmpcontext.
  *
index 929a8ea13bc047d17b02b8c1fc4f714c7c82ab8d..89046f9afbb2db1fee2b4a472c96e11c98c47e1e 100644 (file)
@@ -71,7 +71,7 @@ static Datum GetAggInitVal(Datum textInitVal, Oid transtype);
  *
  * Information about the aggregates and transition functions are collected
  * in the root->agginfos and root->aggtransinfos lists.  The 'aggtranstype',
- * 'aggno', and 'aggtransno' fields in are filled in in each Aggref.
+ * 'aggno', and 'aggtransno' fields of each Aggref are filled in.
  *
  * NOTE: This modifies the Aggrefs in the input expression in-place!
  *
index d736d06d2886dd56e4ad27fc5ee8d58236d0882a..4fc6ffb9175384f12398993364bcfcc4779fd870 100644 (file)
@@ -2075,7 +2075,7 @@ GetSnapshotDataReuse(Snapshot snapshot)
     * holding ProcArrayLock) exclusively). Thus the xactCompletionCount check
     * ensures we would detect if the snapshot would have changed.
     *
-    * As the snapshot contents are the same as it was before, it is is safe
+    * As the snapshot contents are the same as it was before, it is safe
     * to re-enter the snapshot's xmin into the PGPROC array. None of the rows
     * visible under the snapshot could already have been removed (that'd
     * require the set of running transactions to change) and it fulfills the
index 4d185c27b47f9ee8358df33acbf2341f4053bb86..078aaef5392856ce58967d4a0db2d51f4fadf2bb 100644 (file)
@@ -263,7 +263,7 @@ static int  compareDatetime(Datum val1, Oid typid1, Datum val2, Oid typid2,
  *     implement @? and @@ operators, which in turn are intended to have an
  *     index support.  Thus, it's desirable to make it easier to achieve
  *     consistency between index scan results and sequential scan results.
- *     So, we throw as less errors as possible.  Regarding this function,
+ *     So, we throw as few errors as possible.  Regarding this function,
  *     such behavior also matches behavior of JSON_EXISTS() clause of
  *     SQL/JSON.  Regarding jsonb_path_match(), this function doesn't have
  *     an analogy in SQL/JSON, so we define its behavior on our own.
index 47ca4ddbb525024634e5002e4cc41cda1225caf2..52314d3aa1c5c1829c161c98783b8bc2b425a839 100644 (file)
@@ -645,7 +645,7 @@ scalarineqsel(PlannerInfo *root, Oid operator, bool isgt, bool iseq,
 
            /*
             * The calculation so far gave us a selectivity for the "<=" case.
-            * We'll have one less tuple for "<" and one additional tuple for
+            * We'll have one fewer tuple for "<" and one additional tuple for
             * ">=", the latter of which we'll reverse the selectivity for
             * below, so we can simply subtract one tuple for both cases.  The
             * cases that need this adjustment can be identified by iseq being
index fa2b49c676e6bd107a9e192f8731d76a6caeaf41..55c944589818cc5dbc4d25c89ceb3e6bd0bf655b 100644 (file)
@@ -1497,7 +1497,7 @@ GetCatCacheHashValue(CatCache *cache,
  *     It doesn't make any sense to specify all of the cache's key columns
  *     here: since the key is unique, there could be at most one match, so
  *     you ought to use SearchCatCache() instead.  Hence this function takes
- *     one less Datum argument than SearchCatCache() does.
+ *     one fewer Datum argument than SearchCatCache() does.
  *
  *     The caller must not modify the list object or the pointed-to tuples,
  *     and must call ReleaseCatCacheList() when done with the list.
index 86d2adcaee99fb86dd3f94489466428cfb116913..ac794cf4ebeb22c53bd096e619a4e1d6a6e1ddbd 100644 (file)
@@ -539,7 +539,7 @@ process_queued_fetch_requests(libpq_source *src)
                         chunkoff, rq->path, (int64) rq->offset);
 
            /*
-            * We should not receive receive more data than we requested, or
+            * We should not receive more data than we requested, or
             * pg_read_binary_file() messed up.  We could receive less,
             * though, if the file was truncated in the source after we
             * checked its size. That's OK, there should be a WAL record of
index a4a3f40048e829e4091201a2c9eab053ca756a93..627a244fb738bcb02665cf663e20d6f610241ed9 100644 (file)
@@ -6458,7 +6458,7 @@ threadRun(void *arg)
 
            /*
             * If advanceConnectionState changed client to finished state,
-            * that's one less client that remains.
+            * that's one fewer client that remains.
             */
            if (st->state == CSTATE_FINISHED || st->state == CSTATE_ABORTED)
                remains--;
index 2a12071badcc223c6e1ec53917fadf234e27bc43..f10ad0acd6fb63ac0e3eeda65522cfb55bd5abf4 100644 (file)
@@ -21,7 +21,7 @@
 
 /*
  * Maximum length for identifiers (e.g. table names, column names,
- * function names).  Names actually are limited to one less byte than this,
+ * function names).  Names actually are limited to one fewer byte than this,
  * because the length must include a trailing zero byte.
  *
  * Changing this requires an initdb.
index 67d3c7b4e45e97e2183c7ca69361e8306a5652ad..9e73f1f1b1182116ae516405628115c090993c32 100644 (file)
@@ -7,7 +7,7 @@
 
 /*
  * Maximum length for identifiers (e.g. table names, column names,
- * function names).  Names actually are limited to one less byte than this,
+ * function names).  Names actually are limited to one fewer byte than this,
  * because the length must include a trailing zero byte.
  *
  * This should be at least as much as NAMEDATALEN of the database the
index 84f7eabb663fc47a5e451afc7e4774de51d33c9e..974e2ec43a48ff01ca34749f754db0de1f285c03 100644 (file)
@@ -4325,7 +4325,7 @@ SELECT f1, polygon(8, f1) FROM CIRCLE_TBL WHERE f1 >= '<(0,0),1>';
  <(100,1),115>  | ((-15,1),(18.6827201635,82.3172798365),(100,116),(181.317279836,82.3172798365),(215,1),(181.317279836,-80.3172798365),(100,-114),(18.6827201635,-80.3172798365))
 (6 rows)
 
--- Too less points error
+-- Error for insufficient number of points
 SELECT f1, polygon(1, f1) FROM CIRCLE_TBL WHERE f1 >= '<(0,0),1>';
 ERROR:  must request at least 2 points
 -- Zero radius error
index 3fc1998bf2d036ba3deef6819aa6212dc736863a..418f296a3f9e40d056cbd98ee487e84b9694352a 100644 (file)
@@ -1,7 +1,7 @@
 -- only use parallelism when explicitly intending to do so
 SET max_parallel_maintenance_workers = 0;
 SET max_parallel_workers = 0;
--- A table with with contents that, when sorted, triggers abbreviated
+-- A table with contents that, when sorted, triggers abbreviated
 -- key aborts. One easy way to achieve that is to use uuids that all
 -- have the same prefix, as abbreviated keys for uuids just use the
 -- first sizeof(Datum) bytes.
index 96df0ab05a43f924575990879bc7811173daa8be..bbb6acd4555a9ede66340bda54303c26b10a4225 100644 (file)
@@ -424,7 +424,7 @@ SELECT f1, f1::polygon FROM CIRCLE_TBL WHERE f1 >= '<(0,0),1>';
 -- To polygon with less points
 SELECT f1, polygon(8, f1) FROM CIRCLE_TBL WHERE f1 >= '<(0,0),1>';
 
--- Too less points error
+-- Error for insufficient number of points
 SELECT f1, polygon(1, f1) FROM CIRCLE_TBL WHERE f1 >= '<(0,0),1>';
 
 -- Zero radius error
index 7d7e02f02a880e5590fc25a1c00af5dfd3378e5b..846484d5612fbe54ef361aba8d269acc766d669d 100644 (file)
@@ -2,7 +2,7 @@
 SET max_parallel_maintenance_workers = 0;
 SET max_parallel_workers = 0;
 
--- A table with with contents that, when sorted, triggers abbreviated
+-- A table with contents that, when sorted, triggers abbreviated
 -- key aborts. One easy way to achieve that is to use uuids that all
 -- have the same prefix, as abbreviated keys for uuids just use the
 -- first sizeof(Datum) bytes.