Message fixes and style improvements
authorPeter Eisentraut
Mon, 14 Sep 2020 04:42:07 +0000 (06:42 +0200)
committerPeter Eisentraut
Mon, 14 Sep 2020 04:42:30 +0000 (06:42 +0200)
24 files changed:
src/backend/access/heap/vacuumlazy.c
src/backend/access/transam/xlog.c
src/backend/commands/opclasscmds.c
src/backend/commands/tablecmds.c
src/backend/libpq/hba.c
src/backend/nodes/params.c
src/backend/parser/gram.y
src/backend/parser/parse_clause.c
src/backend/replication/basebackup.c
src/backend/storage/ipc/procarray.c
src/backend/utils/adt/jsonpath_exec.c
src/backend/utils/fmgr/fmgr.c
src/backend/utils/misc/guc.c
src/backend/utils/sort/sharedtuplestore.c
src/bin/pg_verifybackup/parse_manifest.c
src/bin/pg_verifybackup/pg_verifybackup.c
src/bin/pg_verifybackup/t/005_bad_manifest.pl
src/bin/pgbench/t/001_pgbench_with_server.pl
src/bin/scripts/vacuumdb.c
src/fe_utils/archive.c
src/test/modules/test_misc/t/001_constraint_validation.pl
src/test/regress/expected/alter_generic.out
src/test/regress/expected/jsonb_jsonpath.out
src/test/regress/expected/limit.out

index 92389e6666bc3667603ee5a98735bbf85fff0a31..4f2f38168dc2f4c79ebfd68438978c77352a22da 100644 (file)
@@ -677,11 +677,10 @@ heap_vacuum_rel(Relation onerel, VacuumParams *params,
                             read_rate, write_rate);
            appendStringInfo(&buf, _("system usage: %s\n"), pg_rusage_show(&ru0));
            appendStringInfo(&buf,
-                            _("WAL usage: %ld records, %ld full page images, "
-                              UINT64_FORMAT " bytes"),
+                            _("WAL usage: %ld records, %ld full page images, %llu bytes"),
                             walusage.wal_records,
                             walusage.wal_fpi,
-                            walusage.wal_bytes);
+                            (unsigned long long) walusage.wal_bytes);
 
            ereport(LOG,
                    (errmsg_internal("%s", buf.data)));
@@ -3523,9 +3522,10 @@ parallel_vacuum_main(dsm_segment *seg, shm_toc *toc)
                                           false);
    elevel = lvshared->elevel;
 
-   ereport(DEBUG1,
-           (errmsg("starting parallel vacuum worker for %s",
-                   lvshared->for_cleanup ? "cleanup" : "bulk delete")));
+   if (lvshared->for_cleanup)
+       elog(DEBUG1, "starting parallel vacuum worker for cleanup");
+   else
+       elog(DEBUG1, "starting parallel vacuum worker for bulk delete");
 
    /* Set debug_query_string for individual workers */
    sharedquery = shm_toc_lookup(toc, PARALLEL_VACUUM_KEY_QUERY_TEXT, false);
index 09c01ed4ae486b00bc619260445885be56ae757b..a38371a64f96cedbcbf15d6b7709f59c11ba668b 100644 (file)
@@ -12504,7 +12504,7 @@ StartupRequestWalReceiverRestart(void)
    if (currentSource == XLOG_FROM_STREAM && WalRcvRunning())
    {
        ereport(LOG,
-               (errmsg("wal receiver process shutdown requested")));
+               (errmsg("WAL receiver process shutdown requested")));
 
        pendingWalRcvRestart = true;
    }
index 28395d5946f3aef90e11ce937b0f0afc53fbc2d1..c46db7d11cb47fc6898e343ff7cf44c0948e11bf 100644 (file)
@@ -1212,14 +1212,14 @@ assignProcTypes(OpFamilyMember *member, Oid amoid, Oid typeoid,
                (OidIsValid(member->righttype) && member->righttype != typeoid))
                ereport(ERROR,
                        (errcode(ERRCODE_INVALID_OBJECT_DEFINITION),
-                        errmsg("associated data types for opclass options parsing functions must match opclass input type")));
+                        errmsg("associated data types for operator class options parsing functions must match opclass input type")));
        }
        else
        {
            if (member->lefttype != member->righttype)
                ereport(ERROR,
                        (errcode(ERRCODE_INVALID_OBJECT_DEFINITION),
-                        errmsg("left and right associated data types for opclass options parsing functions must match")));
+                        errmsg("left and right associated data types for operator class options parsing functions must match")));
        }
 
        if (procform->prorettype != VOIDOID ||
@@ -1227,8 +1227,8 @@ assignProcTypes(OpFamilyMember *member, Oid amoid, Oid typeoid,
            procform->proargtypes.values[0] != INTERNALOID)
            ereport(ERROR,
                    (errcode(ERRCODE_INVALID_OBJECT_DEFINITION),
-                    errmsg("invalid opclass options parsing function"),
-                    errhint("Valid signature of opclass options parsing function is '%s'.",
+                    errmsg("invalid operator class options parsing function"),
+                    errhint("Valid signature of operator class options parsing function is %s.",
                             "(internal) RETURNS void")));
    }
 
index 3e57c7f9e1dbe708e1276b6ef29563c9eaa653f9..c21a309f04fd0ce75ea37c84dbc7c926d3c3e885 100644 (file)
@@ -6855,7 +6855,7 @@ NotNullImpliedByRelConstraints(Relation rel, Form_pg_attribute attr)
    if (ConstraintImpliedByRelConstraint(rel, list_make1(nnulltest), NIL))
    {
        ereport(DEBUG1,
-               (errmsg("existing constraints on column \"%s\".\"%s\" are sufficient to prove that it does not contain nulls",
+               (errmsg("existing constraints on column \"%s.%s\" are sufficient to prove that it does not contain nulls",
                        RelationGetRelationName(rel), NameStr(attr->attname))));
        return true;
    }
index 9f106653f3f881ea70086368a1585b251429a722..7b54ffc31ea1dba8b2615d5de1b1d3c5f200ef41 100644 (file)
@@ -1746,10 +1746,10 @@ parse_hba_auth_opt(char *name, char *val, HbaLine *hbaline,
            {
                ereport(elevel,
                        (errcode(ERRCODE_CONFIG_FILE_ERROR),
-                        errmsg("clientcert can not be set to \"no-verify\" when using \"cert\" authentication"),
+                        errmsg("clientcert cannot be set to \"no-verify\" when using \"cert\" authentication"),
                         errcontext("line %d of configuration file \"%s\"",
                                    line_num, HbaFileName)));
-               *err_msg = "clientcert can not be set to \"no-verify\" when using \"cert\" authentication";
+               *err_msg = "clientcert cannot be set to \"no-verify\" when using \"cert\" authentication";
                return false;
            }
            hbaline->clientcert = clientCertOff;
index bce0c7e72b2c5df72f9984f877aa71c767969d2e..c05f04a259c1bb3b917df8e6b2dcc205fed530de 100644 (file)
@@ -414,9 +414,9 @@ ParamsErrorCallback(void *arg)
        return;
 
    if (data->portalName && data->portalName[0] != '\0')
-       errcontext("extended query \"%s\" with parameters: %s",
+       errcontext("portal \"%s\" with parameters: %s",
                   data->portalName, data->params->paramValuesStr);
    else
-       errcontext("extended query with parameters: %s",
+       errcontext("unnamed portal with parameters: %s",
                   data->params->paramValuesStr);
 }
index c5154b818cfb1badd1481ff7771a130703b3b67b..9f47745ee246def5a4faf4a2565b3f4b18226eae 100644 (file)
@@ -15919,7 +15919,7 @@ insertSelectOptions(SelectStmt *stmt,
        if (!stmt->sortClause && limitClause->limitOption == LIMIT_OPTION_WITH_TIES)
            ereport(ERROR,
                    (errcode(ERRCODE_SYNTAX_ERROR),
-                    errmsg("WITH TIES options can not be specified without ORDER BY clause")));
+                    errmsg("WITH TIES cannot be specified without ORDER BY clause")));
        stmt->limitOption = limitClause->limitOption;
    }
    if (withClause)
index 6fff13479e47f6f19d830ce61a231a6fd6694bfb..edcaf276c0ad391407da453d8fe2ce7c0d3f2783 100644 (file)
@@ -1770,7 +1770,7 @@ transformLimitClause(ParseState *pstate, Node *clause,
        IsA(clause, A_Const) && ((A_Const *) clause)->val.type == T_Null)
        ereport(ERROR,
                (errcode(ERRCODE_INVALID_ROW_COUNT_IN_LIMIT_CLAUSE),
-                errmsg("row count cannot be NULL in FETCH FIRST ... WITH TIES clause")));
+                errmsg("row count cannot be null in FETCH FIRST ... WITH TIES clause")));
 
    return qual;
 }
index 6064384e32a4bc9d5bbdaf507f2cd03f2b73d98d..b89df01fa76fb7029b2310d490839de8f1ae8722 100644 (file)
@@ -719,7 +719,10 @@ perform_base_backup(basebackup_options *opt)
    {
        if (total_checksum_failures > 1)
            ereport(WARNING,
-                   (errmsg("%lld total checksum verification failures", total_checksum_failures)));
+                   (errmsg_plural("%lld total checksum verification failure",
+                                  "%lld total checksum verification failures",
+                                  total_checksum_failures,
+                                  total_checksum_failures)));
 
        ereport(ERROR,
                (errcode(ERRCODE_DATA_CORRUPTED),
index 1c0cd6b2487b9468cf8929f1e7e6af11d6f448d6..4262b3cec8258e85930066278931e623a4da9df4 100644 (file)
@@ -3627,7 +3627,7 @@ TerminateOtherDBBackends(Oid databaseId)
    if (nprepared > 0)
        ereport(ERROR,
                (errcode(ERRCODE_OBJECT_IN_USE),
-                errmsg("database \"%s\" is being used by prepared transaction",
+                errmsg("database \"%s\" is being used by prepared transactions",
                        get_database_name(databaseId)),
                 errdetail_plural("There is %d prepared transaction using the database.",
                                  "There are %d prepared transactions using the database.",
index 7403c760b486c472ac6f121da4e26006c1135c03..2c0b362502f36732aa0ade1a6406cbbae729fbbf 100644 (file)
@@ -2582,9 +2582,9 @@ checkTimezoneIsUsedForCast(bool useTz, const char *type1, const char *type2)
    if (!useTz)
        ereport(ERROR,
                (errcode(ERRCODE_FEATURE_NOT_SUPPORTED),
-                errmsg("cannot convert value from %s to %s without timezone usage",
+                errmsg("cannot convert value from %s to %s without time zone usage",
                        type1, type2),
-                errhint("Use *_tz() function for timezone support.")));
+                errhint("Use *_tz() function for time zone support.")));
 }
 
 /* Convert time datum to timetz datum */
index 03c614b234a339cf778031debcf30b6165128279..2681b7fbc6035e8d232ba88f3a8acf94095ccc47 100644 (file)
@@ -2000,7 +2000,7 @@ get_fn_opclass_options(FmgrInfo *flinfo)
 
    ereport(ERROR,
            (errcode(ERRCODE_INVALID_PARAMETER_VALUE),
-            errmsg("opclass options info is absent in function call context")));
+            errmsg("operator class options info is absent in function call context")));
 
    return NULL;
 }
index 73518d9866211a89103e19d7d7319b30c0d0042e..596bcb7b842ea3e84fbb9c59ab075ce288b9a93e 100644 (file)
@@ -2837,7 +2837,7 @@ static struct config_int ConfigureNamesInt[] =
            gettext_noop("Sets the minimum execution time above which "
                         "a sample of statements will be logged."
                         " Sampling is determined by log_statement_sample_rate."),
-           gettext_noop("Zero log a sample of all queries. -1 turns this feature off."),
+           gettext_noop("Zero logs a sample of all queries. -1 turns this feature off."),
            GUC_UNIT_MS
        },
        &log_min_duration_sample,
@@ -3700,7 +3700,7 @@ static struct config_string ConfigureNamesString[] =
 
    {
        {"restore_command", PGC_POSTMASTER, WAL_ARCHIVE_RECOVERY,
-           gettext_noop("Sets the shell command that will retrieve an archived WAL file."),
+           gettext_noop("Sets the shell command that will be called to retrieve an archived WAL file."),
            NULL
        },
        &recoveryRestoreCommand,
index b83fb50dac8f34a335af732df6d3be4a40a17e35..fe298ce92ed5cd50be20866ae49589e339f164d9 100644 (file)
@@ -566,7 +566,7 @@ sts_parallel_scan_next(SharedTuplestoreAccessor *accessor, void *meta_data)
            if (BufFileSeekBlock(accessor->read_file, read_page) != 0)
                ereport(ERROR,
                        (errcode_for_file_access(),
-                        errmsg("could not seek block %u in shared tuplestore temporary file",
+                        errmsg("could not seek to block %u in shared tuplestore temporary file",
                                read_page)));
            nread = BufFileRead(accessor->read_file, &chunk_header,
                                STS_CHUNK_HEADER_SIZE);
index faee423c7ece585ce84deb3faddae9c5b4da446b..608e23538bad26c139a80a7375739e8e8641c24b 100644 (file)
@@ -325,7 +325,7 @@ json_manifest_object_field_start(void *state, char *fname, bool isnull)
 
            /* It's not a field we recognize. */
            json_manifest_parse_failure(parse->context,
-                                       "unknown toplevel field");
+                                       "unrecognized top-level field");
            break;
 
        case JM_EXPECT_THIS_FILE_FIELD:
@@ -358,7 +358,7 @@ json_manifest_object_field_start(void *state, char *fname, bool isnull)
                parse->wal_range_field = JMWRF_END_LSN;
            else
                json_manifest_parse_failure(parse->context,
-                                           "unexpected wal range field");
+                                           "unexpected WAL range field");
            parse->state = JM_EXPECT_THIS_WAL_RANGE_VALUE;
            break;
 
@@ -469,10 +469,10 @@ json_manifest_finalize_file(JsonManifestParseState *parse)
 
    /* Pathname and size are required. */
    if (parse->pathname == NULL && parse->encoded_pathname == NULL)
-       json_manifest_parse_failure(parse->context, "missing pathname");
+       json_manifest_parse_failure(parse->context, "missing path name");
    if (parse->pathname != NULL && parse->encoded_pathname != NULL)
        json_manifest_parse_failure(parse->context,
-                                   "both pathname and encoded pathname");
+                                   "both path name and encoded path name");
    if (parse->size == NULL)
        json_manifest_parse_failure(parse->context, "missing size");
    if (parse->algorithm == NULL && parse->checksum != NULL)
@@ -491,7 +491,7 @@ json_manifest_finalize_file(JsonManifestParseState *parse)
                              parse->encoded_pathname,
                              raw_length))
            json_manifest_parse_failure(parse->context,
-                                       "unable to decode filename");
+                                       "could not decode file name");
        parse->pathname[raw_length] = '\0';
        pfree(parse->encoded_pathname);
        parse->encoded_pathname = NULL;
@@ -582,10 +582,10 @@ json_manifest_finalize_wal_range(JsonManifestParseState *parse)
                                    "timeline is not an integer");
    if (!parse_xlogrecptr(&start_lsn, parse->start_lsn))
        json_manifest_parse_failure(parse->context,
-                                   "unable to parse start LSN");
+                                   "could not parse start LSN");
    if (!parse_xlogrecptr(&end_lsn, parse->end_lsn))
        json_manifest_parse_failure(parse->context,
-                                   "unable to parse end LSN");
+                                   "could not parse end LSN");
 
    /* Invoke the callback with the details we've gathered. */
    context->perwalrange_cb(context, tli, start_lsn, end_lsn);
index 70b6ffdec00b53eb81b5bcc59dc19b370351c945..20140aa02748aec37ae7f680086f15f14655c94f 100644 (file)
@@ -471,7 +471,7 @@ record_manifest_details_for_file(JsonManifestParseContext *context,
    /* Make a new entry in the hash table for this file. */
    m = manifest_files_insert(ht, pathname, &found);
    if (found)
-       report_fatal_error("duplicate pathname in backup manifest: \"%s\"",
+       report_fatal_error("duplicate path name in backup manifest: \"%s\"",
                           pathname);
 
    /* Initialize the entry. */
index afd64d1a96b008d9589921ba6da3228e0549e3b6..5bd5556038c3d97c79535d50f99625ab9dbf52fa 100644 (file)
@@ -38,7 +38,7 @@ test_parse_error('unexpected scalar', <
 {"PostgreSQL-Backup-Manifest-Version": 1, "Files": true}
 EOM
 
-test_parse_error('unknown toplevel field', <
+test_parse_error('unrecognized top-level field', <
 {"PostgreSQL-Backup-Manifest-Version": 1, "Oops": 1}
 EOM
 
@@ -46,11 +46,11 @@ test_parse_error('unexpected object start', <
 {"PostgreSQL-Backup-Manifest-Version": 1, "Files": {}}
 EOM
 
-test_parse_error('missing pathname', <
+test_parse_error('missing path name', <
 {"PostgreSQL-Backup-Manifest-Version": 1, "Files": [{}]}
 EOM
 
-test_parse_error('both pathname and encoded pathname', <
+test_parse_error('both path name and encoded path name', <
 {"PostgreSQL-Backup-Manifest-Version": 1, "Files": [
     {"Path": "x", "Encoded-Path": "1234"}
 ]}
@@ -74,13 +74,13 @@ test_parse_error('file size is not an integer', <
 ]}
 EOM
 
-test_parse_error('unable to decode filename', <
+test_parse_error('could not decode file name', <
 {"PostgreSQL-Backup-Manifest-Version": 1, "Files": [
     {"Encoded-Path": "123", "Size": 0}
 ]}
 EOM
 
-test_fatal_error('duplicate pathname in backup manifest', <
+test_fatal_error('duplicate path name in backup manifest', <
 {"PostgreSQL-Backup-Manifest-Version": 1, "Files": [
     {"Path": "x", "Size": 0},
     {"Path": "x", "Size": 0}
@@ -117,7 +117,7 @@ test_parse_error('missing end LSN', <
 ]}
 EOM
 
-test_parse_error('unexpected wal range field', <
+test_parse_error('unexpected WAL range field', <
 {"PostgreSQL-Backup-Manifest-Version": 1, "WAL-Ranges": [
     {"Oops": 1}
 ]}
@@ -141,13 +141,13 @@ test_parse_error('timeline is not an integer', <
 ]}
 EOM
 
-test_parse_error('unable to parse start LSN', <
+test_parse_error('could not parse start LSN', <
 {"PostgreSQL-Backup-Manifest-Version": 1, "WAL-Ranges": [
     {"Timeline": 1, "Start-LSN": "oops", "End-LSN": "0/0"}
 ]}
 EOM
 
-test_parse_error('unable to parse end LSN', <
+test_parse_error('could not parse end LSN', <
 {"PostgreSQL-Backup-Manifest-Version": 1, "WAL-Ranges": [
     {"Timeline": 1, "Start-LSN": "0/0", "End-LSN": "oops"}
 ]}
index 52009c3524291fef9df683dc9d62ec7ba32415e0..61b671d54fd66a6f9b6c0465f68d3af327b73d10 100644 (file)
@@ -287,7 +287,7 @@ pgbench(
    [],
    [
        qr{ERROR:  invalid input syntax for type json},
-       qr{(?!extended query with parameters)}
+       qr{(?!unnamed portal with parameters)}
    ],
    'server parameter logging',
    {
@@ -314,7 +314,7 @@ pgbench(
    [],
    [
        qr{ERROR:  division by zero},
-       qr{CONTEXT:  extended query with parameters: \$1 = '1', \$2 = NULL}
+       qr{CONTEXT:  unnamed portal with parameters: \$1 = '1', \$2 = NULL}
    ],
    'server parameter logging',
    {
@@ -328,7 +328,7 @@ pgbench(
    [],
    [
        qr{ERROR:  invalid input syntax for type json},
-       qr[CONTEXT:  JSON data, line 1: \{ invalid\.\.\.[\r\n]+extended query with parameters: \$1 = '\{ invalid ', \$2 = '''Valame Dios!'' dijo Sancho; ''no le dije yo a vuestra merced que \.\.\.']m
+       qr[CONTEXT:  JSON data, line 1: \{ invalid\.\.\.[\r\n]+unnamed portal with parameters: \$1 = '\{ invalid ', \$2 = '''Valame Dios!'' dijo Sancho; ''no le dije yo a vuestra merced que \.\.\.']m
    ],
    'server parameter logging',
    {
@@ -356,7 +356,7 @@ pgbench(
    [],
    [
        qr{ERROR:  division by zero},
-       qr{CONTEXT:  extended query with parameters: \$1 = '1', \$2 = NULL}
+       qr{CONTEXT:  unnamed portal with parameters: \$1 = '1', \$2 = NULL}
    ],
    'server parameter logging',
    {
@@ -373,7 +373,7 @@ pgbench(
    [],
    [
        qr{ERROR:  invalid input syntax for type json},
-       qr[CONTEXT:  JSON data, line 1: \{ invalid\.\.\.[\r\n]+extended query with parameters: \$1 = '\{ invalid ', \$2 = '''Valame Dios!'' dijo Sancho; ''no le dije yo a vuestra merced que mirase bien lo que hacia\?']m
+       qr[CONTEXT:  JSON data, line 1: \{ invalid\.\.\.[\r\n]+unnamed portal with parameters: \$1 = '\{ invalid ', \$2 = '''Valame Dios!'' dijo Sancho; ''no le dije yo a vuestra merced que mirase bien lo que hacia\?']m
    ],
    'server parameter logging',
    {
index a8bc65421966db26dda9d8d035558c56d6e53131..2a1247a1b0426e62a0c9c78dfe97ef429f71923a 100644 (file)
@@ -305,7 +305,7 @@ main(int argc, char *argv[])
        }
        if (vacopts.full)
        {
-           pg_log_error("cannot use the \"%s\" option when performing full",
+           pg_log_error("cannot use the \"%s\" option when performing full vacuum",
                         "parallel");
            exit(1);
        }
index c4cb2131985110bcc06756309f60dc1381b83f4b..1e9d994af63c2a8ee052887ab6d4e28ff0a37382 100644 (file)
@@ -50,7 +50,7 @@ RestoreArchivedFile(const char *path, const char *xlogfname,
                                         xlogfname, NULL);
    if (xlogRestoreCmd == NULL)
    {
-       pg_log_fatal("could not use restore_command with %%r alias");
+       pg_log_fatal("cannot use restore_command with %%r placeholder");
        exit(1);
    }
 
@@ -109,7 +109,7 @@ RestoreArchivedFile(const char *path, const char *xlogfname,
     */
    if (wait_result_is_any_signal(rc, true))
    {
-       pg_log_fatal("restore_command failed due to the signal: %s",
+       pg_log_fatal("restore_command failed: %s",
                     wait_result_to_str(rc));
        exit(1);
    }
index 22497f22b01c9c4d0f88c38b71b84b9f48148f32..c9453f9063e6985c7397329270566dcfbdfeeaac 100644 (file)
@@ -56,7 +56,7 @@ run_sql_command(
 $output = run_sql_command('alter table atacc1 alter test_a set not null;');
 ok(!is_table_verified($output), 'with constraint will not scan table');
 ok( $output =~
-     m/existing constraints on column "atacc1"."test_a" are sufficient to prove that it does not contain nulls/,
+     m/existing constraints on column "atacc1.test_a" are sufficient to prove that it does not contain nulls/,
    'test_a proved by constraints');
 
 run_sql_command('alter table atacc1 alter test_a drop not null;');
@@ -68,7 +68,7 @@ $output = run_sql_command(
 ok(is_table_verified($output), 'table was scanned');
 # we may miss debug message for test_a constraint because we need verify table due test_b
 ok( !(  $output =~
-       m/existing constraints on column "atacc1"."test_b" are sufficient to prove that it does not contain nulls/
+       m/existing constraints on column "atacc1.test_b" are sufficient to prove that it does not contain nulls/
    ),
    'test_b not proved by wrong constraints');
 run_sql_command(
@@ -84,10 +84,10 @@ $output = run_sql_command(
 );
 ok(!is_table_verified($output), 'table was not scanned for both columns');
 ok( $output =~
-     m/existing constraints on column "atacc1"."test_a" are sufficient to prove that it does not contain nulls/,
+     m/existing constraints on column "atacc1.test_a" are sufficient to prove that it does not contain nulls/,
    'test_a proved by constraints');
 ok( $output =~
-     m/existing constraints on column "atacc1"."test_b" are sufficient to prove that it does not contain nulls/,
+     m/existing constraints on column "atacc1.test_b" are sufficient to prove that it does not contain nulls/,
    'test_b proved by constraints');
 run_sql_command('drop table atacc1;');
 
index 1e50b69ea50f3d8814bf793c2bb1fc93d2d1ad2b..505eb7ede53c80a363c7769e9b159156ac1d84fa 100644 (file)
@@ -505,10 +505,10 @@ CREATE OPERATOR FAMILY alt_opf19 USING btree;
 ALTER OPERATOR FAMILY alt_opf19 USING btree ADD FUNCTION 5 test_opclass_options_func(internal, text[], bool);
 ERROR:  function test_opclass_options_func(internal, text[], boolean) does not exist
 ALTER OPERATOR FAMILY alt_opf19 USING btree ADD FUNCTION 5 (int4) btint42cmp(int4, int2);
-ERROR:  invalid opclass options parsing function
-HINT:  Valid signature of opclass options parsing function is '(internal) RETURNS void'.
+ERROR:  invalid operator class options parsing function
+HINT:  Valid signature of operator class options parsing function is (internal) RETURNS void.
 ALTER OPERATOR FAMILY alt_opf19 USING btree ADD FUNCTION 5 (int4, int2) btint42cmp(int4, int2);
-ERROR:  left and right associated data types for opclass options parsing functions must match
+ERROR:  left and right associated data types for operator class options parsing functions must match
 ALTER OPERATOR FAMILY alt_opf19 USING btree ADD FUNCTION 5 (int4) test_opclass_options_func(internal); -- Ok
 ALTER OPERATOR FAMILY alt_opf19 USING btree DROP FUNCTION 5 (int4, int4);
 DROP OPERATOR FAMILY alt_opf19 USING btree;
index 57332111b427b8f6b03a4a877847100520ffe960..c870b7f99426da05934e37d4bb1a41b4b58ace14 100644 (file)
@@ -1942,18 +1942,18 @@ set time zone '+00';
 select jsonb_path_query(
    '["2017-03-10", "2017-03-11", "2017-03-09", "12:34:56", "01:02:03 +04", "2017-03-10 00:00:00", "2017-03-10 12:34:56", "2017-03-10 01:02:03 +04", "2017-03-10 03:00:00 +03"]',
    '$[*].datetime() ? (@ == "10.03.2017".datetime("dd.mm.yyyy"))');
-ERROR:  cannot convert value from date to timestamptz without timezone usage
-HINT:  Use *_tz() function for timezone support.
+ERROR:  cannot convert value from date to timestamptz without time zone usage
+HINT:  Use *_tz() function for time zone support.
 select jsonb_path_query(
    '["2017-03-10", "2017-03-11", "2017-03-09", "12:34:56", "01:02:03 +04", "2017-03-10 00:00:00", "2017-03-10 12:34:56", "2017-03-10 01:02:03 +04", "2017-03-10 03:00:00 +03"]',
    '$[*].datetime() ? (@ >= "10.03.2017".datetime("dd.mm.yyyy"))');
-ERROR:  cannot convert value from date to timestamptz without timezone usage
-HINT:  Use *_tz() function for timezone support.
+ERROR:  cannot convert value from date to timestamptz without time zone usage
+HINT:  Use *_tz() function for time zone support.
 select jsonb_path_query(
    '["2017-03-10", "2017-03-11", "2017-03-09", "12:34:56", "01:02:03 +04", "2017-03-10 00:00:00", "2017-03-10 12:34:56", "2017-03-10 01:02:03 +04", "2017-03-10 03:00:00 +03"]',
    '$[*].datetime() ? (@ <  "10.03.2017".datetime("dd.mm.yyyy"))');
-ERROR:  cannot convert value from date to timestamptz without timezone usage
-HINT:  Use *_tz() function for timezone support.
+ERROR:  cannot convert value from date to timestamptz without time zone usage
+HINT:  Use *_tz() function for time zone support.
 select jsonb_path_query_tz(
    '["2017-03-10", "2017-03-11", "2017-03-09", "12:34:56", "01:02:03 +04", "2017-03-10 00:00:00", "2017-03-10 12:34:56", "2017-03-10 01:02:03 +04", "2017-03-10 03:00:00 +03"]',
    '$[*].datetime() ? (@ == "10.03.2017".datetime("dd.mm.yyyy"))');
@@ -1989,18 +1989,18 @@ select jsonb_path_query_tz(
 select jsonb_path_query(
    '["12:34:00", "12:35:00", "12:36:00", "12:35:00 +00", "12:35:00 +01", "13:35:00 +01", "2017-03-10", "2017-03-10 12:35:00", "2017-03-10 12:35:00 +01"]',
    '$[*].datetime() ? (@ == "12:35".datetime("HH24:MI"))');
-ERROR:  cannot convert value from time to timetz without timezone usage
-HINT:  Use *_tz() function for timezone support.
+ERROR:  cannot convert value from time to timetz without time zone usage
+HINT:  Use *_tz() function for time zone support.
 select jsonb_path_query(
    '["12:34:00", "12:35:00", "12:36:00", "12:35:00 +00", "12:35:00 +01", "13:35:00 +01", "2017-03-10", "2017-03-10 12:35:00", "2017-03-10 12:35:00 +01"]',
    '$[*].datetime() ? (@ >= "12:35".datetime("HH24:MI"))');
-ERROR:  cannot convert value from time to timetz without timezone usage
-HINT:  Use *_tz() function for timezone support.
+ERROR:  cannot convert value from time to timetz without time zone usage
+HINT:  Use *_tz() function for time zone support.
 select jsonb_path_query(
    '["12:34:00", "12:35:00", "12:36:00", "12:35:00 +00", "12:35:00 +01", "13:35:00 +01", "2017-03-10", "2017-03-10 12:35:00", "2017-03-10 12:35:00 +01"]',
    '$[*].datetime() ? (@ <  "12:35".datetime("HH24:MI"))');
-ERROR:  cannot convert value from time to timetz without timezone usage
-HINT:  Use *_tz() function for timezone support.
+ERROR:  cannot convert value from time to timetz without time zone usage
+HINT:  Use *_tz() function for time zone support.
 select jsonb_path_query_tz(
    '["12:34:00", "12:35:00", "12:36:00", "12:35:00 +00", "12:35:00 +01", "13:35:00 +01", "2017-03-10", "2017-03-10 12:35:00", "2017-03-10 12:35:00 +01"]',
    '$[*].datetime() ? (@ == "12:35".datetime("HH24:MI"))');
@@ -2034,18 +2034,18 @@ select jsonb_path_query_tz(
 select jsonb_path_query(
    '["12:34:00 +01", "12:35:00 +01", "12:36:00 +01", "12:35:00 +02", "12:35:00 -02", "10:35:00", "11:35:00", "12:35:00", "2017-03-10", "2017-03-10 12:35:00", "2017-03-10 12:35:00 +1"]',
    '$[*].datetime() ? (@ == "12:35 +1".datetime("HH24:MI TZH"))');
-ERROR:  cannot convert value from time to timetz without timezone usage
-HINT:  Use *_tz() function for timezone support.
+ERROR:  cannot convert value from time to timetz without time zone usage
+HINT:  Use *_tz() function for time zone support.
 select jsonb_path_query(
    '["12:34:00 +01", "12:35:00 +01", "12:36:00 +01", "12:35:00 +02", "12:35:00 -02", "10:35:00", "11:35:00", "12:35:00", "2017-03-10", "2017-03-10 12:35:00", "2017-03-10 12:35:00 +1"]',
    '$[*].datetime() ? (@ >= "12:35 +1".datetime("HH24:MI TZH"))');
-ERROR:  cannot convert value from time to timetz without timezone usage
-HINT:  Use *_tz() function for timezone support.
+ERROR:  cannot convert value from time to timetz without time zone usage
+HINT:  Use *_tz() function for time zone support.
 select jsonb_path_query(
    '["12:34:00 +01", "12:35:00 +01", "12:36:00 +01", "12:35:00 +02", "12:35:00 -02", "10:35:00", "11:35:00", "12:35:00", "2017-03-10", "2017-03-10 12:35:00", "2017-03-10 12:35:00 +1"]',
    '$[*].datetime() ? (@ <  "12:35 +1".datetime("HH24:MI TZH"))');
-ERROR:  cannot convert value from time to timetz without timezone usage
-HINT:  Use *_tz() function for timezone support.
+ERROR:  cannot convert value from time to timetz without time zone usage
+HINT:  Use *_tz() function for time zone support.
 select jsonb_path_query_tz(
    '["12:34:00 +01", "12:35:00 +01", "12:36:00 +01", "12:35:00 +02", "12:35:00 -02", "10:35:00", "11:35:00", "12:35:00", "2017-03-10", "2017-03-10 12:35:00", "2017-03-10 12:35:00 +1"]',
    '$[*].datetime() ? (@ == "12:35 +1".datetime("HH24:MI TZH"))');
@@ -2080,18 +2080,18 @@ select jsonb_path_query_tz(
 select jsonb_path_query(
    '["2017-03-10 12:34:00", "2017-03-10 12:35:00", "2017-03-10 12:36:00", "2017-03-10 12:35:00 +01", "2017-03-10 13:35:00 +01", "2017-03-10 12:35:00 -01", "2017-03-10", "2017-03-11", "12:34:56", "12:34:56 +01"]',
    '$[*].datetime() ? (@ == "10.03.2017 12:35".datetime("dd.mm.yyyy HH24:MI"))');
-ERROR:  cannot convert value from timestamp to timestamptz without timezone usage
-HINT:  Use *_tz() function for timezone support.
+ERROR:  cannot convert value from timestamp to timestamptz without time zone usage
+HINT:  Use *_tz() function for time zone support.
 select jsonb_path_query(
    '["2017-03-10 12:34:00", "2017-03-10 12:35:00", "2017-03-10 12:36:00", "2017-03-10 12:35:00 +01", "2017-03-10 13:35:00 +01", "2017-03-10 12:35:00 -01", "2017-03-10", "2017-03-11", "12:34:56", "12:34:56 +01"]',
    '$[*].datetime() ? (@ >= "10.03.2017 12:35".datetime("dd.mm.yyyy HH24:MI"))');
-ERROR:  cannot convert value from timestamp to timestamptz without timezone usage
-HINT:  Use *_tz() function for timezone support.
+ERROR:  cannot convert value from timestamp to timestamptz without time zone usage
+HINT:  Use *_tz() function for time zone support.
 select jsonb_path_query(
    '["2017-03-10 12:34:00", "2017-03-10 12:35:00", "2017-03-10 12:36:00", "2017-03-10 12:35:00 +01", "2017-03-10 13:35:00 +01", "2017-03-10 12:35:00 -01", "2017-03-10", "2017-03-11", "12:34:56", "12:34:56 +01"]',
    '$[*].datetime() ? (@ < "10.03.2017 12:35".datetime("dd.mm.yyyy HH24:MI"))');
-ERROR:  cannot convert value from timestamp to timestamptz without timezone usage
-HINT:  Use *_tz() function for timezone support.
+ERROR:  cannot convert value from timestamp to timestamptz without time zone usage
+HINT:  Use *_tz() function for time zone support.
 select jsonb_path_query_tz(
    '["2017-03-10 12:34:00", "2017-03-10 12:35:00", "2017-03-10 12:36:00", "2017-03-10 12:35:00 +01", "2017-03-10 13:35:00 +01", "2017-03-10 12:35:00 -01", "2017-03-10", "2017-03-11", "12:34:56", "12:34:56 +01"]',
    '$[*].datetime() ? (@ == "10.03.2017 12:35".datetime("dd.mm.yyyy HH24:MI"))');
@@ -2127,18 +2127,18 @@ select jsonb_path_query_tz(
 select jsonb_path_query(
    '["2017-03-10 12:34:00 +01", "2017-03-10 12:35:00 +01", "2017-03-10 12:36:00 +01", "2017-03-10 12:35:00 +02", "2017-03-10 12:35:00 -02", "2017-03-10 10:35:00", "2017-03-10 11:35:00", "2017-03-10 12:35:00", "2017-03-10", "2017-03-11", "12:34:56", "12:34:56 +01"]',
    '$[*].datetime() ? (@ == "10.03.2017 12:35 +1".datetime("dd.mm.yyyy HH24:MI TZH"))');
-ERROR:  cannot convert value from timestamp to timestamptz without timezone usage
-HINT:  Use *_tz() function for timezone support.
+ERROR:  cannot convert value from timestamp to timestamptz without time zone usage
+HINT:  Use *_tz() function for time zone support.
 select jsonb_path_query(
    '["2017-03-10 12:34:00 +01", "2017-03-10 12:35:00 +01", "2017-03-10 12:36:00 +01", "2017-03-10 12:35:00 +02", "2017-03-10 12:35:00 -02", "2017-03-10 10:35:00", "2017-03-10 11:35:00", "2017-03-10 12:35:00", "2017-03-10", "2017-03-11", "12:34:56", "12:34:56 +01"]',
    '$[*].datetime() ? (@ >= "10.03.2017 12:35 +1".datetime("dd.mm.yyyy HH24:MI TZH"))');
-ERROR:  cannot convert value from timestamp to timestamptz without timezone usage
-HINT:  Use *_tz() function for timezone support.
+ERROR:  cannot convert value from timestamp to timestamptz without time zone usage
+HINT:  Use *_tz() function for time zone support.
 select jsonb_path_query(
    '["2017-03-10 12:34:00 +01", "2017-03-10 12:35:00 +01", "2017-03-10 12:36:00 +01", "2017-03-10 12:35:00 +02", "2017-03-10 12:35:00 -02", "2017-03-10 10:35:00", "2017-03-10 11:35:00", "2017-03-10 12:35:00", "2017-03-10", "2017-03-11", "12:34:56", "12:34:56 +01"]',
    '$[*].datetime() ? (@ < "10.03.2017 12:35 +1".datetime("dd.mm.yyyy HH24:MI TZH"))');
-ERROR:  cannot convert value from timestamp to timestamptz without timezone usage
-HINT:  Use *_tz() function for timezone support.
+ERROR:  cannot convert value from timestamp to timestamptz without time zone usage
+HINT:  Use *_tz() function for time zone support.
 select jsonb_path_query_tz(
    '["2017-03-10 12:34:00 +01", "2017-03-10 12:35:00 +01", "2017-03-10 12:36:00 +01", "2017-03-10 12:35:00 +02", "2017-03-10 12:35:00 -02", "2017-03-10 10:35:00", "2017-03-10 11:35:00", "2017-03-10 12:35:00", "2017-03-10", "2017-03-11", "12:34:56", "12:34:56 +01"]',
    '$[*].datetime() ? (@ == "10.03.2017 12:35 +1".datetime("dd.mm.yyyy HH24:MI TZH"))');
index e6f6809fbee8a0b031986c4db8c0d09fec6eef51..b75afcc01a399db06e894ca089e307e9a3e183ac 100644 (file)
@@ -623,7 +623,7 @@ SELECT  thousand
 SELECT ''::text AS two, unique1, unique2, stringu1
        FROM onek WHERE unique1 > 50
        FETCH FIRST 2 ROW WITH TIES;
-ERROR:  WITH TIES options can not be specified without ORDER BY clause
+ERROR:  WITH TIES cannot be specified without ORDER BY clause
 -- test ruleutils
 CREATE VIEW limit_thousand_v_1 AS SELECT thousand FROM onek WHERE thousand < 995
        ORDER BY thousand FETCH FIRST 5 ROWS WITH TIES OFFSET 10;
@@ -657,7 +657,7 @@ View definition:
 
 CREATE VIEW limit_thousand_v_3 AS SELECT thousand FROM onek WHERE thousand < 995
        ORDER BY thousand FETCH FIRST NULL ROWS WITH TIES;      -- fails
-ERROR:  row count cannot be NULL in FETCH FIRST ... WITH TIES clause
+ERROR:  row count cannot be null in FETCH FIRST ... WITH TIES clause
 CREATE VIEW limit_thousand_v_3 AS SELECT thousand FROM onek WHERE thousand < 995
        ORDER BY thousand FETCH FIRST (NULL+1) ROWS WITH TIES;
 \d+ limit_thousand_v_3