pgindent run for release 9.3
authorBruce Momjian <bruce@momjian.us>
Wed, 29 May 2013 20:58:43 +0000 (16:58 -0400)
committerBruce Momjian <bruce@momjian.us>
Wed, 29 May 2013 20:58:43 +0000 (16:58 -0400)
This is the first run of the Perl-based pgindent script.  Also update
pgindent instructions.

367 files changed:
contrib/btree_gist/btree_bit.c
contrib/btree_gist/btree_text.c
contrib/btree_gist/btree_ts.c
contrib/btree_gist/btree_utils_num.c
contrib/btree_gist/btree_utils_var.c
contrib/dblink/dblink.c
contrib/file_fdw/file_fdw.c
contrib/hstore/hstore_io.c
contrib/oid2name/oid2name.c
contrib/pg_archivecleanup/pg_archivecleanup.c
contrib/pg_standby/pg_standby.c
contrib/pg_test_timing/pg_test_timing.c
contrib/pg_trgm/trgm_op.c
contrib/pg_upgrade/check.c
contrib/pg_upgrade/controldata.c
contrib/pg_upgrade/exec.c
contrib/pg_upgrade/file.c
contrib/pg_upgrade/info.c
contrib/pg_upgrade/option.c
contrib/pg_upgrade/page.c
contrib/pg_upgrade/parallel.c
contrib/pg_upgrade/pg_upgrade.c
contrib/pg_upgrade/pg_upgrade.h
contrib/pg_upgrade/relfilenode.c
contrib/pg_upgrade/server.c
contrib/pg_upgrade/tablespace.c
contrib/pg_upgrade/util.c
contrib/pg_xlogdump/compat.c
contrib/pg_xlogdump/pg_xlogdump.c
contrib/pg_xlogdump/rmgrdesc.c
contrib/pg_xlogdump/rmgrdesc.h
contrib/pgbench/pgbench.c
contrib/pgcrypto/imath.h
contrib/pgcrypto/pgp.h
contrib/pgrowlocks/pgrowlocks.c
contrib/pgstattuple/pgstatindex.c
contrib/postgres_fdw/connection.c
contrib/postgres_fdw/postgres_fdw.c
contrib/postgres_fdw/postgres_fdw.h
contrib/sepgsql/hooks.c
contrib/sepgsql/label.c
contrib/sepgsql/proc.c
contrib/sepgsql/relation.c
contrib/sepgsql/schema.c
contrib/unaccent/unaccent.c
contrib/vacuumlo/vacuumlo.c
contrib/worker_spi/worker_spi.c
src/backend/access/gin/ginbtree.c
src/backend/access/gist/gistbuild.c
src/backend/access/gist/gistget.c
src/backend/access/gist/gistutil.c
src/backend/access/gist/gistxlog.c
src/backend/access/hash/hashinsert.c
src/backend/access/hash/hashsearch.c
src/backend/access/heap/heapam.c
src/backend/access/heap/rewriteheap.c
src/backend/access/heap/visibilitymap.c
src/backend/access/nbtree/nbtpage.c
src/backend/access/nbtree/nbtxlog.c
src/backend/access/rmgrdesc/clogdesc.c
src/backend/access/rmgrdesc/dbasedesc.c
src/backend/access/rmgrdesc/gindesc.c
src/backend/access/rmgrdesc/gistdesc.c
src/backend/access/rmgrdesc/hashdesc.c
src/backend/access/rmgrdesc/heapdesc.c
src/backend/access/rmgrdesc/mxactdesc.c
src/backend/access/rmgrdesc/nbtdesc.c
src/backend/access/rmgrdesc/relmapdesc.c
src/backend/access/rmgrdesc/seqdesc.c
src/backend/access/rmgrdesc/smgrdesc.c
src/backend/access/rmgrdesc/spgdesc.c
src/backend/access/rmgrdesc/standbydesc.c
src/backend/access/rmgrdesc/tblspcdesc.c
src/backend/access/rmgrdesc/xactdesc.c
src/backend/access/rmgrdesc/xlogdesc.c
src/backend/access/spgist/spgtextproc.c
src/backend/access/transam/multixact.c
src/backend/access/transam/timeline.c
src/backend/access/transam/xact.c
src/backend/access/transam/xlog.c
src/backend/access/transam/xlogarchive.c
src/backend/access/transam/xlogfuncs.c
src/backend/access/transam/xlogreader.c
src/backend/bootstrap/bootstrap.c
src/backend/catalog/aclchk.c
src/backend/catalog/catalog.c
src/backend/catalog/dependency.c
src/backend/catalog/heap.c
src/backend/catalog/namespace.c
src/backend/catalog/objectaccess.c
src/backend/catalog/objectaddress.c
src/backend/catalog/pg_constraint.c
src/backend/catalog/pg_enum.c
src/backend/catalog/pg_operator.c
src/backend/catalog/pg_proc.c
src/backend/catalog/pg_shdepend.c
src/backend/catalog/storage.c
src/backend/commands/aggregatecmds.c
src/backend/commands/alter.c
src/backend/commands/async.c
src/backend/commands/cluster.c
src/backend/commands/copy.c
src/backend/commands/createas.c
src/backend/commands/dbcommands.c
src/backend/commands/event_trigger.c
src/backend/commands/explain.c
src/backend/commands/functioncmds.c
src/backend/commands/indexcmds.c
src/backend/commands/matview.c
src/backend/commands/opclasscmds.c
src/backend/commands/operatorcmds.c
src/backend/commands/proclang.c
src/backend/commands/sequence.c
src/backend/commands/tablecmds.c
src/backend/commands/trigger.c
src/backend/commands/typecmds.c
src/backend/commands/user.c
src/backend/commands/vacuum.c
src/backend/commands/vacuumlazy.c
src/backend/executor/execMain.c
src/backend/executor/execQual.c
src/backend/executor/functions.c
src/backend/executor/nodeLockRows.c
src/backend/executor/nodeModifyTable.c
src/backend/executor/nodeSeqscan.c
src/backend/executor/spi.c
src/backend/lib/binaryheap.c
src/backend/libpq/auth.c
src/backend/libpq/hba.c
src/backend/libpq/pqcomm.c
src/backend/main/main.c
src/backend/optimizer/geqo/geqo_cx.c
src/backend/optimizer/geqo/geqo_px.c
src/backend/optimizer/path/allpaths.c
src/backend/optimizer/path/costsize.c
src/backend/optimizer/path/equivclass.c
src/backend/optimizer/path/indxpath.c
src/backend/optimizer/path/joinpath.c
src/backend/optimizer/plan/analyzejoins.c
src/backend/optimizer/plan/initsplan.c
src/backend/optimizer/plan/planagg.c
src/backend/optimizer/plan/planner.c
src/backend/optimizer/prep/prepjointree.c
src/backend/optimizer/util/clauses.c
src/backend/optimizer/util/pathnode.c
src/backend/parser/analyze.c
src/backend/parser/check_keywords.pl
src/backend/parser/parse_agg.c
src/backend/parser/parse_clause.c
src/backend/parser/parse_expr.c
src/backend/parser/parse_relation.c
src/backend/parser/parse_target.c
src/backend/parser/parse_utilcmd.c
src/backend/port/sysv_shmem.c
src/backend/postmaster/autovacuum.c
src/backend/postmaster/checkpointer.c
src/backend/postmaster/fork_process.c
src/backend/postmaster/pgarch.c
src/backend/postmaster/pgstat.c
src/backend/postmaster/postmaster.c
src/backend/postmaster/syslogger.c
src/backend/regex/regc_nfa.c
src/backend/regex/regprefix.c
src/backend/replication/basebackup.c
src/backend/replication/libpqwalreceiver/libpqwalreceiver.c
src/backend/replication/syncrep.c
src/backend/replication/walreceiver.c
src/backend/replication/walsender.c
src/backend/rewrite/rewriteDefine.c
src/backend/rewrite/rewriteHandler.c
src/backend/rewrite/rewriteManip.c
src/backend/storage/buffer/bufmgr.c
src/backend/storage/buffer/localbuf.c
src/backend/storage/ipc/procarray.c
src/backend/storage/ipc/standby.c
src/backend/storage/lmgr/lock.c
src/backend/storage/lmgr/predicate.c
src/backend/storage/lmgr/proc.c
src/backend/storage/lmgr/spin.c
src/backend/storage/page/bufpage.c
src/backend/storage/page/checksum.c
src/backend/storage/smgr/smgr.c
src/backend/tcop/postgres.c
src/backend/tcop/pquery.c
src/backend/tsearch/ts_selfuncs.c
src/backend/utils/adt/array_typanalyze.c
src/backend/utils/adt/arrayfuncs.c
src/backend/utils/adt/date.c
src/backend/utils/adt/datetime.c
src/backend/utils/adt/formatting.c
src/backend/utils/adt/json.c
src/backend/utils/adt/jsonfuncs.c
src/backend/utils/adt/misc.c
src/backend/utils/adt/numeric.c
src/backend/utils/adt/pg_locale.c
src/backend/utils/adt/pseudotypes.c
src/backend/utils/adt/rangetypes.c
src/backend/utils/adt/rangetypes_gist.c
src/backend/utils/adt/rangetypes_selfuncs.c
src/backend/utils/adt/rangetypes_spgist.c
src/backend/utils/adt/rangetypes_typanalyze.c
src/backend/utils/adt/regproc.c
src/backend/utils/adt/ri_triggers.c
src/backend/utils/adt/ruleutils.c
src/backend/utils/adt/selfuncs.c
src/backend/utils/adt/timestamp.c
src/backend/utils/adt/tsquery_rewrite.c
src/backend/utils/adt/varlena.c
src/backend/utils/adt/xml.c
src/backend/utils/cache/catcache.c
src/backend/utils/cache/evtcache.c
src/backend/utils/cache/plancache.c
src/backend/utils/cache/relcache.c
src/backend/utils/cache/syscache.c
src/backend/utils/error/elog.c
src/backend/utils/hash/dynahash.c
src/backend/utils/init/miscinit.c
src/backend/utils/init/postinit.c
src/backend/utils/mb/mbutils.c
src/backend/utils/mb/wchar.c
src/backend/utils/misc/guc.c
src/backend/utils/resowner/resowner.c
src/backend/utils/sort/tuplestore.c
src/backend/utils/time/tqual.c
src/bin/initdb/initdb.c
src/bin/pg_basebackup/pg_basebackup.c
src/bin/pg_basebackup/pg_receivexlog.c
src/bin/pg_basebackup/receivelog.c
src/bin/pg_basebackup/streamutil.c
src/bin/pg_ctl/pg_ctl.c
src/bin/pg_dump/parallel.c
src/bin/pg_dump/parallel.h
src/bin/pg_dump/pg_backup_archiver.c
src/bin/pg_dump/pg_backup_archiver.h
src/bin/pg_dump/pg_dump.c
src/bin/pg_dump/pg_dump.h
src/bin/pg_resetxlog/pg_resetxlog.c
src/bin/pgevent/pgevent.c
src/bin/psql/command.c
src/bin/psql/copy.c
src/bin/psql/create_help.pl
src/bin/psql/describe.c
src/bin/psql/print.c
src/bin/psql/startup.c
src/bin/psql/tab-complete.c
src/bin/scripts/pg_isready.c
src/common/fe_memutils.c
src/common/relpath.c
src/include/access/gist.h
src/include/access/heapam.h
src/include/access/heapam_xlog.h
src/include/access/htup_details.h
src/include/access/multixact.h
src/include/access/rmgr.h
src/include/access/sysattr.h
src/include/access/timeline.h
src/include/access/xlog.h
src/include/access/xlog_internal.h
src/include/c.h
src/include/catalog/heap.h
src/include/catalog/indexing.h
src/include/catalog/objectaccess.h
src/include/catalog/objectaddress.h
src/include/catalog/pg_class.h
src/include/catalog/pg_constraint.h
src/include/catalog/pg_control.h
src/include/catalog/pg_enum.h
src/include/catalog/pg_event_trigger.h
src/include/catalog/pg_operator.h
src/include/catalog/pg_proc.h
src/include/catalog/pg_statistic.h
src/include/commands/alter.h
src/include/commands/collationcmds.h
src/include/commands/comment.h
src/include/commands/conversioncmds.h
src/include/commands/copy.h
src/include/commands/dbcommands.h
src/include/commands/defrem.h
src/include/commands/event_trigger.h
src/include/commands/extension.h
src/include/commands/matview.h
src/include/commands/proclang.h
src/include/commands/schemacmds.h
src/include/commands/seclabel.h
src/include/commands/sequence.h
src/include/commands/tablecmds.h
src/include/commands/tablespace.h
src/include/commands/trigger.h
src/include/commands/typecmds.h
src/include/commands/user.h
src/include/commands/view.h
src/include/common/fe_memutils.h
src/include/common/relpath.h
src/include/lib/binaryheap.h
src/include/libpq/hba.h
src/include/libpq/libpq.h
src/include/libpq/pqcomm.h
src/include/mb/pg_wchar.h
src/include/miscadmin.h
src/include/nodes/parsenodes.h
src/include/nodes/primnodes.h
src/include/nodes/relation.h
src/include/optimizer/planner.h
src/include/parser/parse_node.h
src/include/parser/parse_relation.h
src/include/port.h
src/include/port/win32.h
src/include/postgres.h
src/include/postmaster/bgworker.h
src/include/postmaster/postmaster.h
src/include/replication/walreceiver.h
src/include/rewrite/rewriteDefine.h
src/include/rewrite/rewriteManip.h
src/include/storage/bufpage.h
src/include/storage/large_object.h
src/include/storage/predicate_internals.h
src/include/storage/relfilenode.h
src/include/storage/standby.h
src/include/tcop/utility.h
src/include/utils/builtins.h
src/include/utils/elog.h
src/include/utils/evtcache.h
src/include/utils/guc_tables.h
src/include/utils/jsonapi.h
src/include/utils/palloc.h
src/include/utils/plancache.h
src/include/utils/rel.h
src/include/utils/reltrigger.h
src/interfaces/ecpg/compatlib/informix.c
src/interfaces/ecpg/ecpglib/typename.c
src/interfaces/ecpg/pgtypeslib/datetime.c
src/interfaces/ecpg/pgtypeslib/interval.c
src/interfaces/ecpg/pgtypeslib/numeric.c
src/interfaces/ecpg/pgtypeslib/timestamp.c
src/interfaces/ecpg/preproc/type.c
src/interfaces/libpq/fe-auth.c
src/interfaces/libpq/fe-connect.c
src/interfaces/libpq/fe-exec.c
src/interfaces/libpq/fe-print.c
src/interfaces/libpq/fe-protocol3.c
src/interfaces/libpq/libpq-events.h
src/pl/plperl/plperl.c
src/pl/plperl/plperl.h
src/pl/plperl/plperl_helpers.h
src/pl/plpgsql/src/pl_scanner.c
src/pl/plpgsql/src/plpgsql.h
src/pl/plpython/plpy_elog.c
src/pl/plpython/plpy_util.c
src/port/pgcheckdir.c
src/port/pqsignal.c
src/port/sprompt.c
src/port/wait_error.c
src/test/isolation/isolationtester.h
src/timezone/zic.c
src/tools/copyright.pl
src/tools/git_changelog
src/tools/msvc/Install.pm
src/tools/msvc/MSBuildProject.pm
src/tools/msvc/Mkvcbuild.pm
src/tools/msvc/Project.pm
src/tools/msvc/Solution.pm
src/tools/msvc/VCBuildProject.pm
src/tools/msvc/vcregress.pl
src/tools/pginclude/pgcheckdefines
src/tools/pgindent/README
src/tools/pgindent/pgindent
src/tools/pgindent/typedefs.list

index 5c0d198b09049e579d8016c0675496717a0c4d8b..d94abcb3cf51d74b3a628f5c5af270b1ef9066aa 100644 (file)
@@ -97,7 +97,6 @@ gbt_bit_xfrm(bytea *leaf)
 static GBT_VARKEY *
 gbt_bit_l2n(GBT_VARKEY *leaf)
 {
-
    GBT_VARKEY *out = leaf;
    GBT_VARKEY_R r = gbt_var_key_readable(leaf);
    bytea      *o;
index 277820dc0a6b422ba4248b11ebeb4f6be8d493f3..56790a998317b7171be7838b0251de0805530853 100644 (file)
@@ -121,7 +121,6 @@ gbt_text_compress(PG_FUNCTION_ARGS)
 Datum
 gbt_bpchar_compress(PG_FUNCTION_ARGS)
 {
-
    GISTENTRY  *entry = (GISTENTRY *) PG_GETARG_POINTER(0);
    GISTENTRY  *retval;
 
index 05609232d250322e6575a66c639e316a3850593e..bf82709dd8657935d15a43aa81abae5fb63431f4 100644 (file)
@@ -382,7 +382,6 @@ gbt_ts_union(PG_FUNCTION_ARGS)
 Datum
 gbt_ts_penalty(PG_FUNCTION_ARGS)
 {
-
    tsKEY      *origentry = (tsKEY *) DatumGetPointer(((GISTENTRY *) PG_GETARG_POINTER(0))->key);
    tsKEY      *newentry = (tsKEY *) DatumGetPointer(((GISTENTRY *) PG_GETARG_POINTER(1))->key);
    float      *result = (float *) PG_GETARG_POINTER(2);
index 832dbc500b12eed061a1c6b8ac883315a94ed40c..5e52ab542bfe4f82ac57e31447ca2c18b2c30017 100644 (file)
@@ -137,7 +137,6 @@ gbt_num_union(GBT_NUMKEY *out, const GistEntryVector *entryvec, const gbtree_nin
 bool
 gbt_num_same(const GBT_NUMKEY *a, const GBT_NUMKEY *b, const gbtree_ninfo *tinfo)
 {
-
    GBT_NUMKEY_R b1,
                b2;
 
@@ -159,7 +158,6 @@ gbt_num_same(const GBT_NUMKEY *a, const GBT_NUMKEY *b, const gbtree_ninfo *tinfo
 void
 gbt_num_bin_union(Datum *u, GBT_NUMKEY *e, const gbtree_ninfo *tinfo)
 {
-
    GBT_NUMKEY_R rd;
 
    rd.lower = &e[0];
index d7387e63d6d4136dfe44fff6a5a4a3ffa3ff6a50..c7c6faafc67e76a8aa9263b241d576d93067a2c9 100644 (file)
@@ -56,7 +56,6 @@ gbt_var_decompress(PG_FUNCTION_ARGS)
 GBT_VARKEY_R
 gbt_var_key_readable(const GBT_VARKEY *k)
 {
-
    GBT_VARKEY_R r;
 
    r.lower = (bytea *) &(((char *) k)[VARHDRSZ]);
@@ -270,7 +269,6 @@ gbt_var_bin_union(Datum *u, GBT_VARKEY *e, Oid collation,
 GISTENTRY *
 gbt_var_compress(GISTENTRY *entry, const gbtree_vinfo *tinfo)
 {
-
    GISTENTRY  *retval;
 
    if (entry->leafkey)
@@ -299,7 +297,6 @@ GBT_VARKEY *
 gbt_var_union(const GistEntryVector *entryvec, int32 *size, Oid collation,
              const gbtree_vinfo *tinfo)
 {
-
    int         i = 0,
                numranges = entryvec->n;
    GBT_VARKEY *cur;
index e8ad94ba841532ca20bd441167e0b2d7df973ade..e617f9b399d61e399ddeadf7a67d8b62e280ecfe 100644 (file)
@@ -1973,7 +1973,7 @@ dblink_fdw_validator(PG_FUNCTION_ARGS)
            ereport(ERROR,
                    (errcode(ERRCODE_FDW_OUT_OF_MEMORY),
                     errmsg("out of memory"),
-                    errdetail("could not get libpq's default connection options")));
+            errdetail("could not get libpq's default connection options")));
    }
 
    /* Validate each supplied option. */
@@ -1984,9 +1984,9 @@ dblink_fdw_validator(PG_FUNCTION_ARGS)
        if (!is_valid_dblink_option(options, def->defname, context))
        {
            /*
-            * Unknown option, or invalid option for the context specified,
-            * so complain about it.  Provide a hint with list of valid
-            * options for the context.
+            * Unknown option, or invalid option for the context specified, so
+            * complain about it.  Provide a hint with list of valid options
+            * for the context.
             */
            StringInfoData buf;
            const PQconninfoOption *opt;
index d1cca1ec3ed66b091a95ec6cd258c0a9e8bd70bb..c5c797c1a4c76b445d3794e7f00948ced4aac276 100644 (file)
@@ -140,8 +140,8 @@ static void fileGetOptions(Oid foreigntableid,
               char **filename, List **other_options);
 static List *get_file_fdw_attribute_options(Oid relid);
 static bool check_selective_binary_conversion(RelOptInfo *baserel,
-                                             Oid foreigntableid,
-                                             List **columns);
+                                 Oid foreigntableid,
+                                 List **columns);
 static void estimate_size(PlannerInfo *root, RelOptInfo *baserel,
              FileFdwPlanState *fdw_private);
 static void estimate_costs(PlannerInfo *root, RelOptInfo *baserel,
@@ -478,7 +478,7 @@ fileGetForeignPaths(PlannerInfo *root,
                   &startup_cost, &total_cost);
 
    /*
-    * Create a ForeignPath node and add it as only possible path.  We use the
+    * Create a ForeignPath node and add it as only possible path.  We use the
     * fdw_private list of the path to carry the convert_selectively option;
     * it will be propagated into the fdw_private list of the Plan node.
     */
@@ -770,7 +770,7 @@ check_selective_binary_conversion(RelOptInfo *baserel,
    /* Add all the attributes used by restriction clauses. */
    foreach(lc, baserel->baserestrictinfo)
    {
-       RestrictInfo   *rinfo = (RestrictInfo *) lfirst(lc);
+       RestrictInfo *rinfo = (RestrictInfo *) lfirst(lc);
 
        pull_varattnos((Node *) rinfo->clause, baserel->relid,
                       &attrs_used);
index 088f0058ed064130e96265a57f40de0c4a85a957..7df960645c79b54e90574772b2deccdd1e231fbb 100644 (file)
@@ -1300,7 +1300,7 @@ hstore_to_json_loose(PG_FUNCTION_ARGS)
             * digit as numeric - could be a zip code or similar
             */
            if (src->len > 0 &&
-               !(src->data[0] == '0' && isdigit((unsigned char) src->data[1])) &&
+           !(src->data[0] == '0' && isdigit((unsigned char) src->data[1])) &&
                strspn(src->data, "+-0123456789Ee.") == src->len)
            {
                /*
@@ -1308,9 +1308,9 @@ hstore_to_json_loose(PG_FUNCTION_ARGS)
                 * value. Ignore any actual parsed value.
                 */
                char       *endptr = "junk";
-               long        lval;
+               long        lval;
 
-               lval =  strtol(src->data, &endptr, 10);
+               lval = strtol(src->data, &endptr, 10);
                (void) lval;
                if (*endptr == '\0')
                {
@@ -1323,7 +1323,7 @@ hstore_to_json_loose(PG_FUNCTION_ARGS)
                else
                {
                    /* not an int - try a double */
-                   double dval;
+                   double      dval;
 
                    dval = strtod(src->data, &endptr);
                    (void) dval;
index 8341a1ffeffe8091fae093c272879add0f6e3d28..cdec94205bc13842780f8f4466c2053df9e1e848 100644 (file)
@@ -215,7 +215,7 @@ add_one_elt(char *eltname, eary *eary)
    {
        eary      ->alloc *= 2;
        eary      ->array = (char **) pg_realloc(eary->array,
-                                                eary->alloc * sizeof(char *));
+                                              eary->alloc * sizeof(char *));
    }
 
    eary      ->array[eary->num] = pg_strdup(eltname);
index e97a11cb49a8519ba2ba0b5416a333a6a2a04309..f12331a62ecaef4b8966aa1d24e0847820dece1d 100644 (file)
@@ -299,8 +299,8 @@ main(int argc, char **argv)
                dryrun = true;
                break;
            case 'x':
-               additional_ext = strdup(optarg);        /* Extension to remove from
-                                                * xlogfile names */
+               additional_ext = strdup(optarg);        /* Extension to remove
+                                                        * from xlogfile names */
                break;
            default:
                fprintf(stderr, "Try \"%s --help\" for more information.\n", progname);
index 11615eb438b81bcccaac16ce8e93106e99c8ffdb..a3f40fbe61aa3da876414da8e6a640f47688b193 100644 (file)
@@ -593,7 +593,7 @@ main(int argc, char **argv)
     * There's no way to trigger failover via signal on Windows.
     */
    (void) pqsignal(SIGUSR1, sighandler);
-   (void) pqsignal(SIGINT, sighandler);    /* deprecated, use SIGUSR1 */
+   (void) pqsignal(SIGINT, sighandler);        /* deprecated, use SIGUSR1 */
    (void) pqsignal(SIGQUIT, sigquit_handler);
 #endif
 
index 191c621376ef0e2b6ff444c25948e43a7d5eab26..0bf9127e105a8cd53cfcd86cb466205893faae67 100644 (file)
@@ -18,7 +18,7 @@ static uint64 test_timing(int32);
 static void output(uint64 loop_count);
 
 /* record duration in powers of 2 microseconds */
-int64 histogram[32];
+int64      histogram[32];
 
 int
 main(int argc, char *argv[])
@@ -110,8 +110,11 @@ test_timing(int32 duration)
    uint64      total_time;
    int64       time_elapsed = 0;
    uint64      loop_count = 0;
-   uint64      prev, cur;
-   instr_time  start_time, end_time, temp;
+   uint64      prev,
+               cur;
+   instr_time  start_time,
+               end_time,
+               temp;
 
    total_time = duration > 0 ? duration * 1000000 : 0;
 
@@ -120,7 +123,8 @@ test_timing(int32 duration)
 
    while (time_elapsed < total_time)
    {
-       int32       diff, bits = 0;
+       int32       diff,
+                   bits = 0;
 
        prev = cur;
        INSTR_TIME_SET_CURRENT(temp);
@@ -163,12 +167,13 @@ test_timing(int32 duration)
 static void
 output(uint64 loop_count)
 {
-   int64       max_bit = 31, i;
+   int64       max_bit = 31,
+               i;
 
    /* find highest bit value */
    while (max_bit > 0 && histogram[max_bit] == 0)
        max_bit--;
-       
+
    printf("Histogram of timing durations:\n");
    printf("%6s   %10s %10s\n", "< usec", "% of total", "count");
 
@@ -179,6 +184,6 @@ output(uint64 loop_count)
        /* lame hack to work around INT64_FORMAT deficiencies */
        snprintf(buf, sizeof(buf), INT64_FORMAT, histogram[i]);
        printf("%6ld    %9.5f %10s\n", 1l << i,
-               (double) histogram[i] * 100 / loop_count, buf);
+              (double) histogram[i] * 100 / loop_count, buf);
    }
 }
index 76e470c77855fd7b6bbd85299edef5907ff83fc7..c632a586639c2cc27a0990e9b261c57a5581a347 100644 (file)
@@ -347,8 +347,8 @@ get_wildcard_part(const char *str, int lenstr,
            else
            {
                /*
-                * Back up endword to the escape character when stopping at
-                * an escaped char, so that subsequent get_wildcard_part will
+                * Back up endword to the escape character when stopping at an
+                * escaped char, so that subsequent get_wildcard_part will
                 * restart from the escape character.  We assume here that
                 * escape chars are single-byte.
                 */
index 35783d0a2038adc546304510c3f771f9f07b7b10..1f67e602defd362d3a8e66ab6b987d71f3df43ec 100644 (file)
@@ -28,7 +28,7 @@ static char *get_canonical_locale_name(int category, const char *locale);
  * fix_path_separator
  * For non-Windows, just return the argument.
  * For Windows convert any forward slash to a backslash
- * such as is suitable for arguments to builtin commands 
+ * such as is suitable for arguments to builtin commands
  * like RMDIR and DEL.
  */
 static char *
@@ -36,8 +36,8 @@ fix_path_separator(char *path)
 {
 #ifdef WIN32
 
-   char *result;
-   char *c;
+   char       *result;
+   char       *c;
 
    result = pg_strdup(path);
 
@@ -46,11 +46,9 @@ fix_path_separator(char *path)
            *c = '\\';
 
    return result;
-
 #else
 
    return path;
-
 #endif
 }
 
@@ -156,21 +154,21 @@ check_new_cluster(void)
    check_is_super_user(&new_cluster);
 
    /*
-    *  We don't restore our own user, so both clusters must match have
-    *  matching install-user oids.
+    * We don't restore our own user, so both clusters must match have
+    * matching install-user oids.
     */
    if (old_cluster.install_role_oid != new_cluster.install_role_oid)
        pg_log(PG_FATAL,
-       "Old and new cluster install users have different values for pg_authid.oid.\n");
+              "Old and new cluster install users have different values for pg_authid.oid.\n");
 
    /*
-    *  We only allow the install user in the new cluster because other
-    *  defined users might match users defined in the old cluster and
-    *  generate an error during pg_dump restore.
+    * We only allow the install user in the new cluster because other defined
+    * users might match users defined in the old cluster and generate an
+    * error during pg_dump restore.
     */
    if (new_cluster.role_count != 1)
        pg_log(PG_FATAL, "Only the install user can be defined in the new cluster.\n");
-    
+
    check_for_prepared_transactions(&new_cluster);
 }
 
@@ -247,14 +245,14 @@ output_completion_banner(char *analyze_script_file_name,
 
    if (deletion_script_file_name)
        pg_log(PG_REPORT,
-              "Running this script will delete the old cluster's data files:\n"
+           "Running this script will delete the old cluster's data files:\n"
               "    %s\n",
               deletion_script_file_name);
    else
        pg_log(PG_REPORT,
               "Could not create a script to delete the old cluster's data\n"
-              "files because user-defined tablespaces exist in the old cluster\n"
-              "directory.  The old cluster's contents must be deleted manually.\n");
+         "files because user-defined tablespaces exist in the old cluster\n"
+       "directory.  The old cluster's contents must be deleted manually.\n");
 }
 
 
@@ -323,8 +321,8 @@ check_cluster_compatibility(bool live_check)
    /* We read the real port number for PG >= 9.1 */
    if (live_check && GET_MAJOR_VERSION(old_cluster.major_version) < 901 &&
        old_cluster.port == DEF_PGUPORT)
-           pg_log(PG_FATAL, "When checking a pre-PG 9.1 live old server, "
-                  "you must specify the old server's port number.\n");
+       pg_log(PG_FATAL, "When checking a pre-PG 9.1 live old server, "
+              "you must specify the old server's port number.\n");
 
    if (live_check && old_cluster.port == new_cluster.port)
        pg_log(PG_FATAL, "When checking a live server, "
@@ -366,18 +364,18 @@ set_locale_and_encoding(ClusterInfo *cluster)
        if (GET_MAJOR_VERSION(cluster->major_version) < 902)
        {
            /*
-            *  Pre-9.2 did not canonicalize the supplied locale names
-            *  to match what the system returns, while 9.2+ does, so
-            *  convert pre-9.2 to match.
+            * Pre-9.2 did not canonicalize the supplied locale names to match
+            * what the system returns, while 9.2+ does, so convert pre-9.2 to
+            * match.
             */
            ctrl->lc_collate = get_canonical_locale_name(LC_COLLATE,
-                              pg_strdup(PQgetvalue(res, 0, i_datcollate)));
+                               pg_strdup(PQgetvalue(res, 0, i_datcollate)));
            ctrl->lc_ctype = get_canonical_locale_name(LC_CTYPE,
-                              pg_strdup(PQgetvalue(res, 0, i_datctype)));
-       }
+                                 pg_strdup(PQgetvalue(res, 0, i_datctype)));
+       }
        else
        {
-           ctrl->lc_collate = pg_strdup(PQgetvalue(res, 0, i_datcollate));
+           ctrl->lc_collate = pg_strdup(PQgetvalue(res, 0, i_datcollate));
            ctrl->lc_ctype = pg_strdup(PQgetvalue(res, 0, i_datctype));
        }
 
@@ -410,21 +408,21 @@ check_locale_and_encoding(ControlData *oldctrl,
                          ControlData *newctrl)
 {
    /*
-    *  These are often defined with inconsistent case, so use pg_strcasecmp().
-    *  They also often use inconsistent hyphenation, which we cannot fix, e.g.
-    *  UTF-8 vs. UTF8, so at least we display the mismatching values.
+    * These are often defined with inconsistent case, so use pg_strcasecmp().
+    * They also often use inconsistent hyphenation, which we cannot fix, e.g.
+    * UTF-8 vs. UTF8, so at least we display the mismatching values.
     */
    if (pg_strcasecmp(oldctrl->lc_collate, newctrl->lc_collate) != 0)
        pg_log(PG_FATAL,
-              "lc_collate cluster values do not match:  old \"%s\", new \"%s\"\n",
+        "lc_collate cluster values do not match:  old \"%s\", new \"%s\"\n",
               oldctrl->lc_collate, newctrl->lc_collate);
    if (pg_strcasecmp(oldctrl->lc_ctype, newctrl->lc_ctype) != 0)
        pg_log(PG_FATAL,
-              "lc_ctype cluster values do not match:  old \"%s\", new \"%s\"\n",
+          "lc_ctype cluster values do not match:  old \"%s\", new \"%s\"\n",
               oldctrl->lc_ctype, newctrl->lc_ctype);
    if (pg_strcasecmp(oldctrl->encoding, newctrl->encoding) != 0)
        pg_log(PG_FATAL,
-              "encoding cluster values do not match:  old \"%s\", new \"%s\"\n",
+          "encoding cluster values do not match:  old \"%s\", new \"%s\"\n",
               oldctrl->encoding, newctrl->encoding);
 }
 
@@ -597,16 +595,16 @@ create_script_for_old_cluster_deletion(char **deletion_script_file_name)
             SCRIPT_EXT);
 
    /*
-    *  Some users (oddly) create tablespaces inside the cluster data
-    *  directory.  We can't create a proper old cluster delete script
-    *  in that case.
+    * Some users (oddly) create tablespaces inside the cluster data
+    * directory.  We can't create a proper old cluster delete script in that
+    * case.
     */
    strlcpy(old_cluster_pgdata, old_cluster.pgdata, MAXPGPATH);
    canonicalize_path(old_cluster_pgdata);
    for (tblnum = 0; tblnum < os_info.num_old_tablespaces; tblnum++)
    {
        char        old_tablespace_dir[MAXPGPATH];
-       
+
        strlcpy(old_tablespace_dir, os_info.old_tablespaces[tblnum], MAXPGPATH);
        canonicalize_path(old_tablespace_dir);
        if (path_is_prefix_of_path(old_cluster_pgdata, old_tablespace_dir))
@@ -649,7 +647,7 @@ create_script_for_old_cluster_deletion(char **deletion_script_file_name)
            /* remove PG_VERSION? */
            if (GET_MAJOR_VERSION(old_cluster.major_version) <= 804)
                fprintf(script, RM_CMD " %s%s%cPG_VERSION\n",
-                       fix_path_separator(os_info.old_tablespaces[tblnum]), 
+                       fix_path_separator(os_info.old_tablespaces[tblnum]),
                        fix_path_separator(old_cluster.tablespace_suffix),
                        PATH_SEPARATOR);
 
@@ -668,7 +666,7 @@ create_script_for_old_cluster_deletion(char **deletion_script_file_name)
             * or a version-specific subdirectory.
             */
            fprintf(script, RMDIR_CMD " %s%s\n",
-                   fix_path_separator(os_info.old_tablespaces[tblnum]), 
+                   fix_path_separator(os_info.old_tablespaces[tblnum]),
                    fix_path_separator(old_cluster.tablespace_suffix));
    }
 
@@ -997,7 +995,7 @@ get_canonical_locale_name(int category, const char *locale)
 
    save = setlocale(category, NULL);
    if (!save)
-        pg_log(PG_FATAL, "failed to get the current locale\n");
+       pg_log(PG_FATAL, "failed to get the current locale\n");
 
    /* 'save' may be pointing at a modifiable scratch variable, so copy it. */
    save = pg_strdup(save);
@@ -1006,13 +1004,13 @@ get_canonical_locale_name(int category, const char *locale)
    res = setlocale(category, locale);
 
    if (!res)
-        pg_log(PG_FATAL, "failed to get system local name for \"%s\"\n", res);
+       pg_log(PG_FATAL, "failed to get system local name for \"%s\"\n", res);
 
    res = pg_strdup(res);
 
    /* restore old value. */
    if (!setlocale(category, save))
-        pg_log(PG_FATAL, "failed to restore old locale \"%s\"\n", save);
+       pg_log(PG_FATAL, "failed to restore old locale \"%s\"\n", save);
 
    pg_free(save);
 
index d1acff5c9f87b2517e0f9bbdef9d564d4a438d0a..d2d8785271d9543717f04927c3bc3a8aac50c9dc 100644 (file)
@@ -472,10 +472,10 @@ get_control_data(ClusterInfo *cluster, bool live_check)
    pg_free(lc_messages);
 
    /*
-    * Before 9.3, pg_resetxlog reported the xlogid and segno of the first
-    * log file after reset as separate lines. Starting with 9.3, it reports
-    * the WAL file name. If the old cluster is older than 9.3, we construct
-    * the WAL file name from the xlogid and segno.
+    * Before 9.3, pg_resetxlog reported the xlogid and segno of the first log
+    * file after reset as separate lines. Starting with 9.3, it reports the
+    * WAL file name. If the old cluster is older than 9.3, we construct the
+    * WAL file name from the xlogid and segno.
     */
    if (GET_MAJOR_VERSION(cluster->major_version) <= 902)
    {
@@ -499,8 +499,8 @@ get_control_data(ClusterInfo *cluster, bool live_check)
        !got_date_is_int || !got_float8_pass_by_value || !got_data_checksum_version)
    {
        pg_log(PG_REPORT,
-           "The %s cluster lacks some required control information:\n",
-           CLUSTER_NAME(cluster));
+              "The %s cluster lacks some required control information:\n",
+              CLUSTER_NAME(cluster));
 
        if (!got_xid)
            pg_log(PG_REPORT, "  checkpoint next XID\n");
@@ -576,7 +576,7 @@ check_control_data(ControlData *oldctrl,
 {
    if (oldctrl->align == 0 || oldctrl->align != newctrl->align)
        pg_log(PG_FATAL,
-              "old and new pg_controldata alignments are invalid or do not match\n"
+       "old and new pg_controldata alignments are invalid or do not match\n"
               "Likely one cluster is a 32-bit install, the other 64-bit\n");
 
    if (oldctrl->blocksz == 0 || oldctrl->blocksz != newctrl->blocksz)
@@ -621,7 +621,10 @@ check_control_data(ControlData *oldctrl,
               "options.\n");
    }
 
-   /* We might eventually allow upgrades from checksum to no-checksum clusters. */
+   /*
+    * We might eventually allow upgrades from checksum to no-checksum
+    * clusters.
+    */
    if (oldctrl->data_checksum_version != newctrl->data_checksum_version)
    {
        pg_log(PG_FATAL,
index af752a66d0067428a956fcee39e4952f82335d7a..005ded4af4995b805ecc72209f222a070b11b162 100644 (file)
@@ -44,6 +44,7 @@ exec_prog(const char *log_file, const char *opt_log_file,
 {
    int         result;
    int         written;
+
 #define MAXCMDLEN (2 * MAXPGPATH)
    char        cmd[MAXCMDLEN];
    mode_t      old_umask = 0;
@@ -67,15 +68,15 @@ exec_prog(const char *log_file, const char *opt_log_file,
 
 #ifdef WIN32
    {
-       /* 
-        * "pg_ctl -w stop" might have reported that the server has
-        * stopped because the postmaster.pid file has been removed,
-        * but "pg_ctl -w start" might still be in the process of
-        * closing and might still be holding its stdout and -l log
-        * file descriptors open.  Therefore, try to open the log 
-        * file a few more times.
+       /*
+        * "pg_ctl -w stop" might have reported that the server has stopped
+        * because the postmaster.pid file has been removed, but "pg_ctl -w
+        * start" might still be in the process of closing and might still be
+        * holding its stdout and -l log file descriptors open.  Therefore,
+        * try to open the log file a few more times.
         */
-       int iter;
+       int         iter;
+
        for (iter = 0; iter < 4 && log == NULL; iter++)
        {
            sleep(1);
@@ -122,12 +123,13 @@ exec_prog(const char *log_file, const char *opt_log_file,
    }
 
 #ifndef WIN32
-   /* 
-    *  We can't do this on Windows because it will keep the "pg_ctl start"
-    *  output filename open until the server stops, so we do the \n\n above
-    *  on that platform.  We use a unique filename for "pg_ctl start" that is
-    *  never reused while the server is running, so it works fine.  We could
-    *  log these commands to a third file, but that just adds complexity.
+
+   /*
+    * We can't do this on Windows because it will keep the "pg_ctl start"
+    * output filename open until the server stops, so we do the \n\n above on
+    * that platform.  We use a unique filename for "pg_ctl start" that is
+    * never reused while the server is running, so it works fine.  We could
+    * log these commands to a third file, but that just adds complexity.
     */
    if ((log = fopen_priv(log_file, "a")) == NULL)
        pg_log(PG_FATAL, "cannot write to log file %s\n", log_file);
@@ -178,7 +180,6 @@ pid_lock_file_exists(const char *datadir)
 void
 verify_directories(void)
 {
-
 #ifndef WIN32
    if (access(".", R_OK | W_OK | X_OK) != 0)
 #else
index 62e8deb69b503bf5a86bd09504dd168495a4adfd..dfeb79f255d9524af7bd6b06961746b1dd67fcb8 100644 (file)
@@ -127,14 +127,13 @@ linkAndUpdateFile(pageCnvCtx *pageConverter,
 static int
 copy_file(const char *srcfile, const char *dstfile, bool force)
 {
-
 #define COPY_BUF_SIZE (50 * BLCKSZ)
 
    int         src_fd;
    int         dest_fd;
    char       *buffer;
    int         ret = 0;
-   int         save_errno = 0;
+   int         save_errno = 0;
 
    if ((srcfile == NULL) || (dstfile == NULL))
        return -1;
index c5c36981eab56568db4ff30427bbe0ad01655753..72b515d12e03a8c790f319df9cc459792166c148 100644 (file)
@@ -60,10 +60,9 @@ gen_db_file_maps(DbInfo *old_db, DbInfo *new_db,
         * table names change during ALTER TABLE ALTER COLUMN SET TYPE. In >=
         * 9.0, TOAST relation names always use heap table oids, hence we
         * cannot check relation names when upgrading from pre-9.0. Clusters
-        * upgraded to 9.0 will get matching TOAST names.
-        * If index names don't match primary key constraint names, this will
-        * fail because pg_dump dumps constraint names and pg_upgrade checks
-        * index names.
+        * upgraded to 9.0 will get matching TOAST names. If index names don't
+        * match primary key constraint names, this will fail because pg_dump
+        * dumps constraint names and pg_upgrade checks index names.
         */
        if (strcmp(old_rel->nspname, new_rel->nspname) != 0 ||
            ((GET_MAJOR_VERSION(old_cluster.major_version) >= 900 ||
@@ -79,7 +78,10 @@ gen_db_file_maps(DbInfo *old_db, DbInfo *new_db,
        num_maps++;
    }
 
-   /* Do this check after the loop so hopefully we will produce a clearer error above */
+   /*
+    * Do this check after the loop so hopefully we will produce a clearer
+    * error above
+    */
    if (old_db->rel_arr.nrels != new_db->rel_arr.nrels)
        pg_log(PG_FATAL, "old and new databases \"%s\" have a different number of relations\n",
               old_db->db_name);
@@ -285,8 +287,11 @@ get_rel_infos(ClusterInfo *cluster, DbInfo *dbinfo)
             "LEFT OUTER JOIN pg_catalog.pg_index i "
             "     ON c.oid = i.indexrelid "
             "WHERE relkind IN ('r', 'm', 'i'%s) AND "
-           /* pg_dump only dumps valid indexes;  testing indisready is
-            * necessary in 9.2, and harmless in earlier/later versions. */
+
+   /*
+    * pg_dump only dumps valid indexes;  testing indisready is necessary in
+    * 9.2, and harmless in earlier/later versions.
+    */
             " i.indisvalid IS DISTINCT FROM false AND "
             " i.indisready IS DISTINCT FROM false AND "
    /* exclude possible orphaned temp tables */
@@ -309,8 +314,8 @@ get_rel_infos(ClusterInfo *cluster, DbInfo *dbinfo)
    PQclear(executeQueryOrDie(conn, "%s", query));
 
    /*
-    *  Get TOAST tables and indexes;  we have to gather the TOAST tables in
-    *  later steps because we can't schema-qualify TOAST tables.
+    * Get TOAST tables and indexes;  we have to gather the TOAST tables in
+    * later steps because we can't schema-qualify TOAST tables.
     */
    PQclear(executeQueryOrDie(conn,
                              "INSERT INTO info_rels "
@@ -335,8 +340,8 @@ get_rel_infos(ClusterInfo *cluster, DbInfo *dbinfo)
    /* we preserve pg_class.oid so we sort by it to match old/new */
             "ORDER BY 1;",
    /* 9.2 removed the spclocation column */
-          (GET_MAJOR_VERSION(cluster->major_version) <= 901) ?
-          "t.spclocation" : "pg_catalog.pg_tablespace_location(t.oid) AS spclocation");
+            (GET_MAJOR_VERSION(cluster->major_version) <= 901) ?
+            "t.spclocation" : "pg_catalog.pg_tablespace_location(t.oid) AS spclocation");
 
    res = executeQueryOrDie(conn, "%s", query);
 
@@ -437,5 +442,5 @@ print_rel_infos(RelInfoArr *rel_arr)
    for (relnum = 0; relnum < rel_arr->nrels; relnum++)
        pg_log(PG_VERBOSE, "relname: %s.%s: reloid: %u reltblspace: %s\n",
               rel_arr->rels[relnum].nspname, rel_arr->rels[relnum].relname,
-              rel_arr->rels[relnum].reloid, rel_arr->rels[relnum].tablespace);
+            rel_arr->rels[relnum].reloid, rel_arr->rels[relnum].tablespace);
 }
index aee8d3d15374ed15ec45a1aa93d3ec5f862d0f85..1459ca9096694705abb7df71f3351e5f508b023f 100644 (file)
@@ -314,8 +314,8 @@ check_required_directory(char **dirpath, char **configpath,
    }
 
    /*
-    * Trim off any trailing path separators because we construct paths
-    * by appending to this path.
+    * Trim off any trailing path separators because we construct paths by
+    * appending to this path.
     */
 #ifndef WIN32
    if ((*dirpath)[strlen(*dirpath) - 1] == '/')
@@ -398,10 +398,10 @@ void
 get_sock_dir(ClusterInfo *cluster, bool live_check)
 {
 #ifdef HAVE_UNIX_SOCKETS
+
    /*
-    *  sockdir and port were added to postmaster.pid in PG 9.1.
-    *  Pre-9.1 cannot process pg_ctl -w for sockets in non-default
-    *  locations.
+    * sockdir and port were added to postmaster.pid in PG 9.1. Pre-9.1 cannot
+    * process pg_ctl -w for sockets in non-default locations.
     */
    if (GET_MAJOR_VERSION(cluster->major_version) >= 901)
    {
@@ -415,26 +415,28 @@ get_sock_dir(ClusterInfo *cluster, bool live_check)
        else
        {
            /*
-            *  If we are doing a live check, we will use the old cluster's Unix
-            *  domain socket directory so we can connect to the live server.
+            * If we are doing a live check, we will use the old cluster's
+            * Unix domain socket directory so we can connect to the live
+            * server.
             */
            unsigned short orig_port = cluster->port;
-           char        filename[MAXPGPATH], line[MAXPGPATH];
-           FILE        *fp;
+           char        filename[MAXPGPATH],
+                       line[MAXPGPATH];
+           FILE       *fp;
            int         lineno;
-   
+
            snprintf(filename, sizeof(filename), "%s/postmaster.pid",
                     cluster->pgdata);
            if ((fp = fopen(filename, "r")) == NULL)
                pg_log(PG_FATAL, "Cannot open file %s: %m\n", filename);
-   
+
            for (lineno = 1;
-                lineno <= Max(LOCK_FILE_LINE_PORT, LOCK_FILE_LINE_SOCKET_DIR);
+              lineno <= Max(LOCK_FILE_LINE_PORT, LOCK_FILE_LINE_SOCKET_DIR);
                 lineno++)
            {
                if (fgets(line, sizeof(line), fp) == NULL)
                    pg_log(PG_FATAL, "Cannot read line %d from %s: %m\n", lineno, filename);
-   
+
                /* potentially overwrite user-supplied value */
                if (lineno == LOCK_FILE_LINE_PORT)
                    sscanf(line, "%hu", &old_cluster.port);
@@ -446,18 +448,21 @@ get_sock_dir(ClusterInfo *cluster, bool live_check)
                }
            }
            fclose(fp);
-   
+
            /* warn of port number correction */
            if (orig_port != DEF_PGUPORT && old_cluster.port != orig_port)
                pg_log(PG_WARNING, "User-supplied old port number %hu corrected to %hu\n",
-               orig_port, cluster->port);
+                      orig_port, cluster->port);
        }
    }
    else
-       /* Can't get sockdir and pg_ctl -w can't use a non-default, use default */
-       cluster->sockdir = NULL;
 
-#else /* !HAVE_UNIX_SOCKETS */
+       /*
+        * Can't get sockdir and pg_ctl -w can't use a non-default, use
+        * default
+        */
+       cluster->sockdir = NULL;
+#else                          /* !HAVE_UNIX_SOCKETS */
    cluster->sockdir = NULL;
 #endif
 }
index fb044d1b62c9f603c8d9b83d232bde2d34aca047..8f8527df5c6602c37bc17fb095e3d481d3020e64 100644 (file)
@@ -59,11 +59,11 @@ setupPageConverter(void)
    if (newPageVersion != oldPageVersion)
    {
        /*
-        * The clusters use differing page layouts, see if we can find a plugin
-        * that knows how to convert from the old page layout to the new page
-        * layout.
+        * The clusters use differing page layouts, see if we can find a
+        * plugin that knows how to convert from the old page layout to the
+        * new page layout.
         */
-   
+
        if ((converter = loadConverterPlugin(newPageVersion, oldPageVersion)) == NULL)
            pg_log(PG_FATAL, "could not find plugin to convert from old page layout to new page layout\n");
 
@@ -161,6 +161,4 @@ loadConverterPlugin(uint16 newPageVersion, uint16 oldPageVersion)
    }
 }
 
-
-
 #endif
index 688a53112c2f8a884282fab5ef46bbf62aec94f6..8725170d1b544f6a7950ece8443ff50b6ac54334 100644 (file)
@@ -20,7 +20,7 @@
 #include <io.h>
 #endif
 
-static int parallel_jobs;
+static int parallel_jobs;
 
 #ifdef WIN32
 /*
@@ -28,31 +28,32 @@ static int parallel_jobs;
  * it can be passed to WaitForMultipleObjects().  We use two arrays
  * so the thread_handles array can be passed to WaitForMultipleObjects().
  */
-HANDLE *thread_handles;
+HANDLE    *thread_handles;
 
-typedef struct {
-   char log_file[MAXPGPATH];
-   char opt_log_file[MAXPGPATH];
-   char cmd[MAX_STRING];
+typedef struct
+{
+   char        log_file[MAXPGPATH];
+   char        opt_log_file[MAXPGPATH];
+   char        cmd[MAX_STRING];
 } exec_thread_arg;
 
-typedef struct {
-   DbInfoArr *old_db_arr;
-   DbInfoArr *new_db_arr;
-   char old_pgdata[MAXPGPATH];
-   char new_pgdata[MAXPGPATH];
-   char old_tablespace[MAXPGPATH];
+typedef struct
+{
+   DbInfoArr  *old_db_arr;
+   DbInfoArr  *new_db_arr;
+   char        old_pgdata[MAXPGPATH];
+   char        new_pgdata[MAXPGPATH];
+   char        old_tablespace[MAXPGPATH];
 } transfer_thread_arg;
 
 exec_thread_arg **exec_thread_args;
 transfer_thread_arg **transfer_thread_args;
 
 /* track current thread_args struct so reap_child() can be used for all cases */
-void **cur_thread_args;
-
-DWORD win32_exec_prog(exec_thread_arg *args);
-DWORD win32_transfer_all_new_dbs(transfer_thread_arg *args);
+void     **cur_thread_args;
 
+DWORD      win32_exec_prog(exec_thread_arg *args);
+DWORD      win32_transfer_all_new_dbs(transfer_thread_arg *args);
 #endif
 
 /*
@@ -67,11 +68,12 @@ parallel_exec_prog(const char *log_file, const char *opt_log_file,
 {
    va_list     args;
    char        cmd[MAX_STRING];
+
 #ifndef WIN32
    pid_t       child;
 #else
    HANDLE      child;
-   exec_thread_arg *new_arg;
+   exec_thread_arg *new_arg;
 #endif
 
    va_start(args, fmt);
@@ -85,8 +87,8 @@ parallel_exec_prog(const char *log_file, const char *opt_log_file,
    {
        /* parallel */
 #ifdef WIN32
-       cur_thread_args = (void **)exec_thread_args;
-#endif 
+       cur_thread_args = (void **) exec_thread_args;
+#endif
        /* harvest any dead children */
        while (reap_child(false) == true)
            ;
@@ -94,10 +96,10 @@ parallel_exec_prog(const char *log_file, const char *opt_log_file,
        /* must we wait for a dead child? */
        if (parallel_jobs >= user_opts.jobs)
            reap_child(true);
-           
+
        /* set this before we start the job */
        parallel_jobs++;
-   
+
        /* Ensure stdio state is quiesced before forking */
        fflush(NULL);
 
@@ -112,22 +114,22 @@ parallel_exec_prog(const char *log_file, const char *opt_log_file,
 #else
        if (thread_handles == NULL)
        {
-           int i;
+           int         i;
 
            thread_handles = pg_malloc(user_opts.jobs * sizeof(HANDLE));
            exec_thread_args = pg_malloc(user_opts.jobs * sizeof(exec_thread_arg *));
 
            /*
-            *  For safety and performance, we keep the args allocated during
-            *  the entire life of the process, and we don't free the args
-            *  in a thread different from the one that allocated it.
+            * For safety and performance, we keep the args allocated during
+            * the entire life of the process, and we don't free the args in a
+            * thread different from the one that allocated it.
             */
            for (i = 0; i < user_opts.jobs; i++)
                exec_thread_args[i] = pg_malloc(sizeof(exec_thread_arg));
        }
 
        /* use first empty array element */
-       new_arg = exec_thread_args[parallel_jobs-1];
+       new_arg = exec_thread_args[parallel_jobs - 1];
 
        /* Can only pass one pointer into the function, so use a struct */
        strcpy(new_arg->log_file, log_file);
@@ -135,11 +137,11 @@ parallel_exec_prog(const char *log_file, const char *opt_log_file,
        strcpy(new_arg->cmd, cmd);
 
        child = (HANDLE) _beginthreadex(NULL, 0, (void *) win32_exec_prog,
-                       new_arg, 0, NULL);
+                                       new_arg, 0, NULL);
        if (child == 0)
            pg_log(PG_FATAL, "could not create worker thread: %s\n", strerror(errno));
 
-       thread_handles[parallel_jobs-1] = child;
+       thread_handles[parallel_jobs - 1] = child;
 #endif
    }
 
@@ -151,7 +153,7 @@ parallel_exec_prog(const char *log_file, const char *opt_log_file,
 DWORD
 win32_exec_prog(exec_thread_arg *args)
 {
-   int ret;
+   int         ret;
 
    ret = !exec_prog(args->log_file, args->opt_log_file, true, "%s", args->cmd);
 
@@ -167,15 +169,16 @@ win32_exec_prog(exec_thread_arg *args)
  * This has the same API as transfer_all_new_dbs, except it does parallel execution
  * by transfering multiple tablespaces in parallel
  */
-void parallel_transfer_all_new_dbs(DbInfoArr *old_db_arr, DbInfoArr *new_db_arr,
-                                  char *old_pgdata, char *new_pgdata,
-                                  char *old_tablespace)
+void
+parallel_transfer_all_new_dbs(DbInfoArr *old_db_arr, DbInfoArr *new_db_arr,
+                             char *old_pgdata, char *new_pgdata,
+                             char *old_tablespace)
 {
 #ifndef WIN32
    pid_t       child;
 #else
    HANDLE      child;
-   transfer_thread_arg *new_arg;
+   transfer_thread_arg *new_arg;
 #endif
 
    if (user_opts.jobs <= 1)
@@ -185,7 +188,7 @@ void parallel_transfer_all_new_dbs(DbInfoArr *old_db_arr, DbInfoArr *new_db_arr,
    {
        /* parallel */
 #ifdef WIN32
-       cur_thread_args = (void **)transfer_thread_args;
+       cur_thread_args = (void **) transfer_thread_args;
 #endif
        /* harvest any dead children */
        while (reap_child(false) == true)
@@ -194,10 +197,10 @@ void parallel_transfer_all_new_dbs(DbInfoArr *old_db_arr, DbInfoArr *new_db_arr,
        /* must we wait for a dead child? */
        if (parallel_jobs >= user_opts.jobs)
            reap_child(true);
-           
+
        /* set this before we start the job */
        parallel_jobs++;
-   
+
        /* Ensure stdio state is quiesced before forking */
        fflush(NULL);
 
@@ -217,22 +220,22 @@ void parallel_transfer_all_new_dbs(DbInfoArr *old_db_arr, DbInfoArr *new_db_arr,
 #else
        if (thread_handles == NULL)
        {
-           int i;
+           int         i;
 
            thread_handles = pg_malloc(user_opts.jobs * sizeof(HANDLE));
            transfer_thread_args = pg_malloc(user_opts.jobs * sizeof(transfer_thread_arg *));
 
            /*
-            *  For safety and performance, we keep the args allocated during
-            *  the entire life of the process, and we don't free the args
-            *  in a thread different from the one that allocated it.
+            * For safety and performance, we keep the args allocated during
+            * the entire life of the process, and we don't free the args in a
+            * thread different from the one that allocated it.
             */
            for (i = 0; i < user_opts.jobs; i++)
                transfer_thread_args[i] = pg_malloc(sizeof(transfer_thread_arg));
        }
 
        /* use first empty array element */
-       new_arg = transfer_thread_args[parallel_jobs-1];
+       new_arg = transfer_thread_args[parallel_jobs - 1];
 
        /* Can only pass one pointer into the function, so use a struct */
        new_arg->old_db_arr = old_db_arr;
@@ -242,11 +245,11 @@ void parallel_transfer_all_new_dbs(DbInfoArr *old_db_arr, DbInfoArr *new_db_arr,
        strcpy(new_arg->old_tablespace, old_tablespace);
 
        child = (HANDLE) _beginthreadex(NULL, 0, (void *) win32_exec_prog,
-                       new_arg, 0, NULL);
+                                       new_arg, 0, NULL);
        if (child == 0)
            pg_log(PG_FATAL, "could not create worker thread: %s\n", strerror(errno));
 
-       thread_handles[parallel_jobs-1] = child;
+       thread_handles[parallel_jobs - 1] = child;
 #endif
    }
 
@@ -274,11 +277,11 @@ bool
 reap_child(bool wait_for_child)
 {
 #ifndef WIN32
-   int work_status;
-   int ret;
+   int         work_status;
+   int         ret;
 #else
-   int             thread_num;
-   DWORD           res;
+   int         thread_num;
+   DWORD       res;
 #endif
 
    if (user_opts.jobs <= 1 || parallel_jobs == 0)
@@ -293,18 +296,17 @@ reap_child(bool wait_for_child)
 
    if (WEXITSTATUS(work_status) != 0)
        pg_log(PG_FATAL, "child worker exited abnormally: %s\n", strerror(errno));
-
 #else
    /* wait for one to finish */
    thread_num = WaitForMultipleObjects(parallel_jobs, thread_handles,
-                   false, wait_for_child ? INFINITE : 0);
+                                       false, wait_for_child ? INFINITE : 0);
 
    if (thread_num == WAIT_TIMEOUT || thread_num == WAIT_FAILED)
        return false;
 
    /* compute thread index in active_threads */
    thread_num -= WAIT_OBJECT_0;
-   
+
    /* get the result */
    GetExitCodeThread(thread_handles[thread_num], &res);
    if (res != 0)
@@ -313,18 +315,18 @@ reap_child(bool wait_for_child)
    /* dispose of handle to stop leaks */
    CloseHandle(thread_handles[thread_num]);
 
-   /*  Move last slot into dead child's position */
+   /* Move last slot into dead child's position */
    if (thread_num != parallel_jobs - 1)
    {
-       void *tmp_args;
-   
+       void       *tmp_args;
+
        thread_handles[thread_num] = thread_handles[parallel_jobs - 1];
 
        /*
-        *  We must swap the arg struct pointers because the thread we
-        *  just moved is active, and we must make sure it is not
-        *  reused by the next created thread.  Instead, the new thread
-        *  will use the arg struct of the thread that just died.
+        * We must swap the arg struct pointers because the thread we just
+        * moved is active, and we must make sure it is not reused by the next
+        * created thread.  Instead, the new thread will use the arg struct of
+        * the thread that just died.
         */
        tmp_args = cur_thread_args[thread_num];
        cur_thread_args[thread_num] = cur_thread_args[parallel_jobs - 1];
index 489b68003c376a1a310990d70940eec529afd27d..3af6314184f2f59f302972a53aaace1347e75add 100644 (file)
@@ -134,7 +134,7 @@ main(int argc, char **argv)
        disable_old_cluster();
 
    transfer_all_new_tablespaces(&old_cluster.dbarr, &new_cluster.dbarr,
-                        old_cluster.pgdata, new_cluster.pgdata);
+                                old_cluster.pgdata, new_cluster.pgdata);
 
    /*
     * Assuming OIDs are only used in system tables, there is no need to
@@ -193,14 +193,13 @@ setup(char *argv0, bool *live_check)
    if (pid_lock_file_exists(old_cluster.pgdata))
    {
        /*
-        *  If we have a postmaster.pid file, try to start the server.  If
-        *  it starts, the pid file was stale, so stop the server.  If it
-        *  doesn't start, assume the server is running.  If the pid file
-        *  is left over from a server crash, this also allows any committed
-        *  transactions stored in the WAL to be replayed so they are not
-        *  lost, because WAL files are not transfered from old to new
-        *  servers.
-        */     
+        * If we have a postmaster.pid file, try to start the server.  If it
+        * starts, the pid file was stale, so stop the server.  If it doesn't
+        * start, assume the server is running.  If the pid file is left over
+        * from a server crash, this also allows any committed transactions
+        * stored in the WAL to be replayed so they are not lost, because WAL
+        * files are not transfered from old to new servers.
+        */
        if (start_postmaster(&old_cluster, false))
            stop_postmaster(false);
        else
@@ -220,7 +219,7 @@ setup(char *argv0, bool *live_check)
            stop_postmaster(false);
        else
            pg_log(PG_FATAL, "There seems to be a postmaster servicing the new cluster.\n"
-              "Please shutdown that postmaster and try again.\n");
+                  "Please shutdown that postmaster and try again.\n");
    }
 
    /* get path to pg_upgrade executable */
@@ -312,9 +311,9 @@ create_new_objects(void)
    prep_status("Adding support functions to new cluster");
 
    /*
-    *  Technically, we only need to install these support functions in new
-    *  databases that also exist in the old cluster, but for completeness
-    *  we process all new databases.
+    * Technically, we only need to install these support functions in new
+    * databases that also exist in the old cluster, but for completeness we
+    * process all new databases.
     */
    for (dbnum = 0; dbnum < new_cluster.dbarr.ndbs; dbnum++)
    {
@@ -330,21 +329,22 @@ create_new_objects(void)
 
    for (dbnum = 0; dbnum < old_cluster.dbarr.ndbs; dbnum++)
    {
-       char sql_file_name[MAXPGPATH], log_file_name[MAXPGPATH];
-       DbInfo     *old_db = &old_cluster.dbarr.dbs[dbnum];
+       char        sql_file_name[MAXPGPATH],
+                   log_file_name[MAXPGPATH];
+       DbInfo     *old_db = &old_cluster.dbarr.dbs[dbnum];
 
        pg_log(PG_STATUS, "%s", old_db->db_name);
        snprintf(sql_file_name, sizeof(sql_file_name), DB_DUMP_FILE_MASK, old_db->db_oid);
        snprintf(log_file_name, sizeof(log_file_name), DB_DUMP_LOG_FILE_MASK, old_db->db_oid);
 
        /*
-        *  pg_dump only produces its output at the end, so there is little
-        *  parallelism if using the pipe.
+        * pg_dump only produces its output at the end, so there is little
+        * parallelism if using the pipe.
         */
        parallel_exec_prog(log_file_name, NULL,
-                 "\"%s/pg_restore\" %s --exit-on-error --verbose --dbname \"%s\" \"%s\"",
-                 new_cluster.bindir, cluster_conn_opts(&new_cluster),
-                 old_db->db_name, sql_file_name);
+                          "\"%s/pg_restore\" %s --exit-on-error --verbose --dbname \"%s\" \"%s\"",
+                        new_cluster.bindir, cluster_conn_opts(&new_cluster),
+                          old_db->db_name, sql_file_name);
    }
 
    /* reap all children */
@@ -418,6 +418,7 @@ copy_clog_xlog_xid(void)
        copy_subdir_files("pg_multixact/offsets");
        copy_subdir_files("pg_multixact/members");
        prep_status("Setting next multixact ID and offset for new cluster");
+
        /*
         * we preserve all files and contents, so we must preserve both "next"
         * counters here and the oldest multi present on system.
@@ -434,6 +435,7 @@ copy_clog_xlog_xid(void)
    else if (new_cluster.controldata.cat_ver >= MULTIXACT_FORMATCHANGE_CAT_VER)
    {
        prep_status("Setting oldest multixact ID on new cluster");
+
        /*
         * We don't preserve files in this case, but it's important that the
         * oldest multi is set to the latest value used by the old system, so
@@ -549,7 +551,6 @@ set_frozenxids(void)
 static void
 cleanup(void)
 {
-
    fclose(log_opts.internal);
 
    /* Remove dump and log files? */
@@ -567,8 +568,9 @@ cleanup(void)
        if (old_cluster.dbarr.dbs)
            for (dbnum = 0; dbnum < old_cluster.dbarr.ndbs; dbnum++)
            {
-               char sql_file_name[MAXPGPATH], log_file_name[MAXPGPATH];
-               DbInfo     *old_db = &old_cluster.dbarr.dbs[dbnum];
+               char        sql_file_name[MAXPGPATH],
+                           log_file_name[MAXPGPATH];
+               DbInfo     *old_db = &old_cluster.dbarr.dbs[dbnum];
 
                snprintf(sql_file_name, sizeof(sql_file_name), DB_DUMP_FILE_MASK, old_db->db_oid);
                unlink(sql_file_name);
index 00f719791c8fae6bb9a45dece2bdc42b11e85a0e..0d44f4e4477cf5bd2b95508d041e0b8924cda876 100644 (file)
@@ -73,24 +73,24 @@ extern char *output_files[];
 #define pg_copy_file       copy_file
 #define pg_mv_file         rename
 #define pg_link_file       link
-#define PATH_SEPARATOR      '/'
+#define PATH_SEPARATOR     '/'
 #define RM_CMD             "rm -f"
 #define RMDIR_CMD          "rm -rf"
 #define SCRIPT_EXT         "sh"
 #define ECHO_QUOTE "'"
-#define ECHO_BLANK  ""
+#define ECHO_BLANK ""
 #else
 #define pg_copy_file       CopyFile
 #define pg_mv_file         pgrename
 #define pg_link_file       win32_pghardlink
 #define sleep(x)           Sleep(x * 1000)
-#define PATH_SEPARATOR      '\\'
+#define PATH_SEPARATOR     '\\'
 #define RM_CMD             "DEL /q"
 #define RMDIR_CMD          "RMDIR /s/q"
 #define SCRIPT_EXT         "bat"
 #define EXE_EXT                ".exe"
 #define ECHO_QUOTE ""
-#define ECHO_BLANK  "."
+#define ECHO_BLANK "."
 #endif
 
 #define CLUSTER_NAME(cluster)  ((cluster) == &old_cluster ? "old" : \
@@ -122,8 +122,8 @@ extern char *output_files[];
 typedef struct
 {
    /* Can't use NAMEDATALEN;  not guaranteed to fit on client */
-   char        *nspname;       /* namespace name */
-   char        *relname;       /* relation name */
+   char       *nspname;        /* namespace name */
+   char       *relname;        /* relation name */
    Oid         reloid;         /* relation oid */
    Oid         relfilenode;    /* relation relfile node */
    /* relation tablespace path, or "" for the cluster default */
@@ -155,8 +155,8 @@ typedef struct
    Oid         old_relfilenode;
    Oid         new_relfilenode;
    /* the rest are used only for logging and error reporting */
-   char        *nspname;       /* namespaces */
-   char        *relname;
+   char       *nspname;        /* namespaces */
+   char       *relname;
 } FileNameMap;
 
 /*
@@ -165,7 +165,7 @@ typedef struct
 typedef struct
 {
    Oid         db_oid;         /* oid of the database */
-   char        *db_name;       /* database name */
+   char       *db_name;        /* database name */
    char        db_tblspace[MAXPGPATH]; /* database default tablespace path */
    RelInfoArr  rel_arr;        /* array of all user relinfos */
 } DbInfo;
@@ -254,8 +254,8 @@ typedef struct
    char        major_version_str[64];  /* string PG_VERSION of cluster */
    uint32      bin_version;    /* version returned from pg_ctl */
    Oid         pg_database_oid;    /* OID of pg_database relation */
-   Oid         install_role_oid;   /* OID of connected role */
-   Oid         role_count;         /* number of roles defined in the cluster */
+   Oid         install_role_oid;       /* OID of connected role */
+   Oid         role_count;     /* number of roles defined in the cluster */
    char       *tablespace_suffix;      /* directory specification */
 } ClusterInfo;
 
@@ -312,12 +312,12 @@ extern OSInfo os_info;
 /* check.c */
 
 void       output_check_banner(bool live_check);
-void       check_and_dump_old_cluster(bool live_check,
-                 char **sequence_script_file_name);
+void check_and_dump_old_cluster(bool live_check,
+                          char **sequence_script_file_name);
 void       check_new_cluster(void);
 void       report_clusters_compatible(void);
 void       issue_warnings(char *sequence_script_file_name);
-void       output_completion_banner(char *analyze_script_file_name,
+void output_completion_banner(char *analyze_script_file_name,
                         char *deletion_script_file_name);
 void       check_cluster_versions(void);
 void       check_cluster_compatibility(bool live_check);
@@ -413,11 +413,11 @@ void      get_sock_dir(ClusterInfo *cluster, bool live_check);
 /* relfilenode.c */
 
 void       get_pg_database_relfilenode(ClusterInfo *cluster);
-void       transfer_all_new_tablespaces(DbInfoArr *old_db_arr,
-                  DbInfoArr *new_db_arr, char *old_pgdata, char *new_pgdata);
-void       transfer_all_new_dbs(DbInfoArr *old_db_arr,
+void transfer_all_new_tablespaces(DbInfoArr *old_db_arr,
+                 DbInfoArr *new_db_arr, char *old_pgdata, char *new_pgdata);
+void transfer_all_new_dbs(DbInfoArr *old_db_arr,
                   DbInfoArr *new_db_arr, char *old_pgdata, char *new_pgdata,
-                  char *old_tablespace);
+                    char *old_tablespace);
 
 /* tablespace.c */
 
@@ -477,11 +477,11 @@ void old_8_3_invalidate_bpchar_pattern_ops_indexes(ClusterInfo *cluster,
 char      *old_8_3_create_sequence_script(ClusterInfo *cluster);
 
 /* parallel.c */
-void       parallel_exec_prog(const char *log_file, const char *opt_log_file,
-         const char *fmt,...)
+void
+parallel_exec_prog(const char *log_file, const char *opt_log_file,
+                  const char *fmt,...)
 __attribute__((format(PG_PRINTF_ATTRIBUTE, 3, 4)));
-void       parallel_transfer_all_new_dbs(DbInfoArr *old_db_arr, DbInfoArr *new_db_arr,
-                                         char *old_pgdata, char *new_pgdata,
-                                         char *old_tablespace);
+void parallel_transfer_all_new_dbs(DbInfoArr *old_db_arr, DbInfoArr *new_db_arr,
+                             char *old_pgdata, char *new_pgdata,
+                             char *old_tablespace);
 bool       reap_child(bool wait_for_child);
-
index 56c702e258162bb6e6c7fc9b3004f7dcae0f0b74..53e0700801a866957b313bc7cfaee54b9882cb3f 100644 (file)
@@ -18,7 +18,7 @@
 static void transfer_single_new_db(pageCnvCtx *pageConverter,
                       FileNameMap *maps, int size, char *old_tablespace);
 static void transfer_relfile(pageCnvCtx *pageConverter, FileNameMap *map,
-                            const char *suffix);
+                const char *suffix);
 
 
 /*
@@ -29,32 +29,32 @@ static void transfer_relfile(pageCnvCtx *pageConverter, FileNameMap *map,
  */
 void
 transfer_all_new_tablespaces(DbInfoArr *old_db_arr, DbInfoArr *new_db_arr,
-                   char *old_pgdata, char *new_pgdata)
+                            char *old_pgdata, char *new_pgdata)
 {
    pg_log(PG_REPORT, "%s user relation files\n",
      user_opts.transfer_mode == TRANSFER_MODE_LINK ? "Linking" : "Copying");
 
    /*
-    *  Transfering files by tablespace is tricky because a single database
-    *  can use multiple tablespaces.  For non-parallel mode, we just pass a
-    *  NULL tablespace path, which matches all tablespaces.  In parallel mode,
-    *  we pass the default tablespace and all user-created tablespaces
-    *  and let those operations happen in parallel.
+    * Transfering files by tablespace is tricky because a single database can
+    * use multiple tablespaces.  For non-parallel mode, we just pass a NULL
+    * tablespace path, which matches all tablespaces.  In parallel mode, we
+    * pass the default tablespace and all user-created tablespaces and let
+    * those operations happen in parallel.
     */
    if (user_opts.jobs <= 1)
        parallel_transfer_all_new_dbs(old_db_arr, new_db_arr, old_pgdata,
                                      new_pgdata, NULL);
    else
    {
-       int tblnum;
+       int         tblnum;
 
        /* transfer default tablespace */
        parallel_transfer_all_new_dbs(old_db_arr, new_db_arr, old_pgdata,
-                             new_pgdata, old_pgdata);
+                                     new_pgdata, old_pgdata);
 
        for (tblnum = 0; tblnum < os_info.num_old_tablespaces; tblnum++)
            parallel_transfer_all_new_dbs(old_db_arr, new_db_arr, old_pgdata,
-                                 new_pgdata, os_info.old_tablespaces[tblnum]);
+                               new_pgdata, os_info.old_tablespaces[tblnum]);
        /* reap all children */
        while (reap_child(true) == true)
            ;
@@ -75,7 +75,7 @@ transfer_all_new_tablespaces(DbInfoArr *old_db_arr, DbInfoArr *new_db_arr,
  */
 void
 transfer_all_new_dbs(DbInfoArr *old_db_arr, DbInfoArr *new_db_arr,
-                   char *old_pgdata, char *new_pgdata, char *old_tablespace)
+                    char *old_pgdata, char *new_pgdata, char *old_tablespace)
 {
    int         old_dbnum,
                new_dbnum;
@@ -170,11 +170,11 @@ transfer_single_new_db(pageCnvCtx *pageConverter,
 {
    int         mapnum;
    bool        vm_crashsafe_match = true;
-   
+
    /*
     * Do the old and new cluster disagree on the crash-safetiness of the vm
-     * files?  If so, do not copy them.
-     */
+    * files?  If so, do not copy them.
+    */
    if (old_cluster.controldata.cat_ver < VISIBILITY_MAP_CRASHSAFE_CAT_VER &&
        new_cluster.controldata.cat_ver >= VISIBILITY_MAP_CRASHSAFE_CAT_VER)
        vm_crashsafe_match = false;
@@ -186,7 +186,7 @@ transfer_single_new_db(pageCnvCtx *pageConverter,
        {
            /* transfer primary file */
            transfer_relfile(pageConverter, &maps[mapnum], "");
-   
+
            /* fsm/vm files added in PG 8.4 */
            if (GET_MAJOR_VERSION(old_cluster.major_version) >= 804)
            {
@@ -217,13 +217,11 @@ transfer_relfile(pageCnvCtx *pageConverter, FileNameMap *map,
    int         fd;
    int         segno;
    char        extent_suffix[65];
-   
+
    /*
-    * Now copy/link any related segments as well. Remember, PG breaks
-    * large files into 1GB segments, the first segment has no extension,
-    * subsequent segments are named relfilenode.1, relfilenode.2,
-    * relfilenode.3.
-    * copied.
+    * Now copy/link any related segments as well. Remember, PG breaks large
+    * files into 1GB segments, the first segment has no extension, subsequent
+    * segments are named relfilenode.1, relfilenode.2, relfilenode.3. copied.
     */
    for (segno = 0;; segno++)
    {
@@ -233,12 +231,12 @@ transfer_relfile(pageCnvCtx *pageConverter, FileNameMap *map,
            snprintf(extent_suffix, sizeof(extent_suffix), ".%d", segno);
 
        snprintf(old_file, sizeof(old_file), "%s%s/%u/%u%s%s", map->old_tablespace,
-                map->old_tablespace_suffix, map->old_db_oid, map->old_relfilenode,
+          map->old_tablespace_suffix, map->old_db_oid, map->old_relfilenode,
                 type_suffix, extent_suffix);
        snprintf(new_file, sizeof(new_file), "%s%s/%u/%u%s%s", map->new_tablespace,
-                map->new_tablespace_suffix, map->new_db_oid, map->new_relfilenode,
+          map->new_tablespace_suffix, map->new_db_oid, map->new_relfilenode,
                 type_suffix, extent_suffix);
-   
+
        /* Is it an extent, fsm, or vm file? */
        if (type_suffix[0] != '\0' || segno != 0)
        {
@@ -257,18 +255,18 @@ transfer_relfile(pageCnvCtx *pageConverter, FileNameMap *map,
        }
 
        unlink(new_file);
-   
+
        /* Copying files might take some time, so give feedback. */
        pg_log(PG_STATUS, "%s", old_file);
-   
+
        if ((user_opts.transfer_mode == TRANSFER_MODE_LINK) && (pageConverter != NULL))
            pg_log(PG_FATAL, "This upgrade requires page-by-page conversion, "
                   "you must use copy mode instead of link mode.\n");
-   
+
        if (user_opts.transfer_mode == TRANSFER_MODE_COPY)
        {
            pg_log(PG_VERBOSE, "copying \"%s\" to \"%s\"\n", old_file, new_file);
-   
+
            if ((msg = copyAndUpdateFile(pageConverter, old_file, new_file, true)) != NULL)
                pg_log(PG_FATAL, "error while copying relation \"%s.%s\" (\"%s\" to \"%s\"): %s\n",
                       map->nspname, map->relname, old_file, new_file, msg);
@@ -276,14 +274,13 @@ transfer_relfile(pageCnvCtx *pageConverter, FileNameMap *map,
        else
        {
            pg_log(PG_VERBOSE, "linking \"%s\" to \"%s\"\n", old_file, new_file);
-   
+
            if ((msg = linkAndUpdateFile(pageConverter, old_file, new_file)) != NULL)
                pg_log(PG_FATAL,
                       "error while creating link for relation \"%s.%s\" (\"%s\" to \"%s\"): %s\n",
                       map->nspname, map->relname, old_file, new_file, msg);
        }
-   }
+   }
 
    return;
 }
-
index ed6775935bc0e743e86d3e648a82bb98a5253643..c1d459dd8220e79def97d220a4e3814a1634ad04 100644 (file)
@@ -79,7 +79,7 @@ get_db_conn(ClusterInfo *cluster, const char *db_name)
 char *
 cluster_conn_opts(ClusterInfo *cluster)
 {
-   static char conn_opts[MAXPGPATH + NAMEDATALEN + 100];
+   static char conn_opts[MAXPGPATH + NAMEDATALEN + 100];
 
    if (cluster->sockdir)
        snprintf(conn_opts, sizeof(conn_opts),
@@ -192,7 +192,7 @@ start_postmaster(ClusterInfo *cluster, bool throw_error)
    strcat(socket_string,
           " -c listen_addresses='' -c unix_socket_permissions=0700");
 
-   /* Have a sockdir?  Tell the postmaster. */
+   /* Have a sockdir?  Tell the postmaster. */
    if (cluster->sockdir)
        snprintf(socket_string + strlen(socket_string),
                 sizeof(socket_string) - strlen(socket_string),
@@ -215,13 +215,13 @@ start_postmaster(ClusterInfo *cluster, bool throw_error)
     * win on ext4.
     */
    snprintf(cmd, sizeof(cmd),
-            "\"%s/pg_ctl\" -w -l \"%s\" -D \"%s\" -o \"-p %d%s%s %s%s\" start",
+         "\"%s/pg_ctl\" -w -l \"%s\" -D \"%s\" -o \"-p %d%s%s %s%s\" start",
          cluster->bindir, SERVER_LOG_FILE, cluster->pgconfig, cluster->port,
             (cluster->controldata.cat_ver >=
              BINARY_UPGRADE_SERVER_FLAG_CAT_VER) ? " -b" :
             " -c autovacuum=off -c autovacuum_freeze_max_age=2000000000",
             (cluster == &new_cluster) ?
-               " -c synchronous_commit=off -c fsync=off -c full_page_writes=off" : "",
+     " -c synchronous_commit=off -c fsync=off -c full_page_writes=off" : "",
             cluster->pgopts ? cluster->pgopts : "", socket_string);
 
    /*
@@ -229,7 +229,7 @@ start_postmaster(ClusterInfo *cluster, bool throw_error)
     * it might supply a reason for the failure.
     */
    pg_ctl_return = exec_prog(SERVER_START_LOG_FILE,
-                             /* pass both file names if they differ */
+   /* pass both file names if they differ */
                              (strcmp(SERVER_LOG_FILE,
                                      SERVER_START_LOG_FILE) != 0) ?
                              SERVER_LOG_FILE : NULL,
@@ -238,7 +238,7 @@ start_postmaster(ClusterInfo *cluster, bool throw_error)
 
    if (!pg_ctl_return && !throw_error)
        return false;
-                             
+
    /* Check to see if we can connect to the server; if not, report it. */
    if ((conn = get_db_conn(cluster, "template1")) == NULL ||
        PQstatus(conn) != CONNECTION_OK)
index 805e402d4a7f10197160f101baaf533c00e12272..4747e7906e73898249dbe99d78ffddc0b765cde3 100644 (file)
@@ -59,7 +59,7 @@ get_tablespace_paths(void)
 
    if ((os_info.num_old_tablespaces = PQntuples(res)) != 0)
        os_info.old_tablespaces = (char **) pg_malloc(
-                                  os_info.num_old_tablespaces * sizeof(char *));
+                              os_info.num_old_tablespaces * sizeof(char *));
    else
        os_info.old_tablespaces = NULL;
 
index 4e51ed72e9837071cc2d0800a875687d8983db83..4da7658c6cd7830c60b415a8219bd52aec3c7b4d 100644 (file)
@@ -40,8 +40,8 @@ void
 end_progress_output(void)
 {
    /*
-    *  In case nothing printed; pass a space so gcc doesn't complain about
-    *  empty format string.
+    * In case nothing printed; pass a space so gcc doesn't complain about
+    * empty format string.
     */
    prep_status(" ");
 }
@@ -114,13 +114,13 @@ pg_log(eLogType type, char *fmt,...)
            /* for output to a display, do leading truncation and append \r */
            if (isatty(fileno(stdout)))
                /* -2 because we use a 2-space indent */
-               printf("  %s%-*.*s\r", 
-                       /* prefix with "..." if we do leading truncation */
-                       strlen(message) <= MESSAGE_WIDTH - 2 ? "" : "...",
-                       MESSAGE_WIDTH - 2, MESSAGE_WIDTH - 2,
-                       /* optional leading truncation */
-                       strlen(message) <= MESSAGE_WIDTH - 2 ? message :
-                       message + strlen(message) - MESSAGE_WIDTH + 3 + 2);
+               printf("  %s%-*.*s\r",
+               /* prefix with "..." if we do leading truncation */
+                      strlen(message) <= MESSAGE_WIDTH - 2 ? "" : "...",
+                      MESSAGE_WIDTH - 2, MESSAGE_WIDTH - 2,
+               /* optional leading truncation */
+                      strlen(message) <= MESSAGE_WIDTH - 2 ? message :
+                      message + strlen(message) - MESSAGE_WIDTH + 3 + 2);
            else
                printf("  %s\n", _(message));
            break;
index 3f3912193aed7e3730dff677501282559ebcaf15..bff76e85d40db1abbc6734c1d424176b51d90697 100644 (file)
@@ -41,7 +41,7 @@ timestamptz_to_time_t(TimestampTz t)
 
 /*
  * Stopgap implementation of timestamptz_to_str that doesn't depend on backend
- * infrastructure.  This will work for timestamps that are within the range
+ * infrastructure. This will work for timestamps that are within the range
  * of the platform time_t type.  (pg_time_t is compatible except for possibly
  * being wider.)
  *
@@ -77,7 +77,7 @@ timestamptz_to_str(TimestampTz dt)
  * be linked/called.
  */
 void
-appendStringInfo(StringInfo str, const char *fmt, ...)
+appendStringInfo(StringInfo str, const char *fmt,...)
 {
    va_list     args;
 
index 1dd9034d5318f5b0ecaa801accb9202a4fd4f561..70dc8d15d5006fdaa8ab9194c31a57e6c7f9e05c 100644 (file)
@@ -73,7 +73,7 @@ fatal_error(const char *fmt,...)
 static void
 print_rmgr_list(void)
 {
-   int     i;
+   int         i;
 
    for (i = 0; i < RM_MAX_ID + 1; i++)
    {
@@ -88,7 +88,8 @@ print_rmgr_list(void)
 static bool
 verify_directory(const char *directory)
 {
-   DIR *dir = opendir(directory);
+   DIR        *dir = opendir(directory);
+
    if (dir == NULL)
        return false;
    closedir(dir);
@@ -113,7 +114,7 @@ split_path(const char *path, char **dir, char **fname)
    if (sep != NULL)
    {
        *dir = pg_strdup(path);
-       (*dir)[(sep - path) + 1] = '\0';    /* no strndup */
+       (*dir)[(sep - path) + 1] = '\0';        /* no strndup */
        *fname = pg_strdup(sep + 1);
    }
    /* local directory */
@@ -596,7 +597,7 @@ main(int argc, char **argv)
        else if (!XLByteInSeg(private.startptr, segno))
        {
            fprintf(stderr,
-                   "%s: start log position %X/%X is not inside file \"%s\"\n",
+                 "%s: start log position %X/%X is not inside file \"%s\"\n",
                    progname,
                    (uint32) (private.startptr >> 32),
                    (uint32) private.startptr,
@@ -672,9 +673,9 @@ main(int argc, char **argv)
                    (uint32) private.startptr);
 
    /*
-    * Display a message that we're skipping data if `from` wasn't a pointer to
-    * the start of a record and also wasn't a pointer to the beginning of a
-    * segment (e.g. we were used in file mode).
+    * Display a message that we're skipping data if `from` wasn't a pointer
+    * to the start of a record and also wasn't a pointer to the beginning of
+    * segment (e.g. we were used in file mode).
     */
    if (first_record != private.startptr && (private.startptr % XLogSegSize) != 0)
        printf("first record is after %X/%X, at %X/%X, skipping over %u bytes\n",
index 0508c8dae91cf0e8589ad8903e31f29952f9e97b..13ab7457265a6751b992787ae748f0cac7d6ec16 100644 (file)
@@ -33,4 +33,3 @@
 const RmgrDescData RmgrDescTable[RM_MAX_ID + 1] = {
 #include "access/rmgrlist.h"
 };
-
index 2341739a14e1cdd1673d5eb3988de9ad1bd737c5..edf82577514e5fdc45e614f939c897bbd38230ab 100644 (file)
@@ -13,9 +13,9 @@
 typedef struct RmgrDescData
 {
    const char *rm_name;
-   void      (*rm_desc) (StringInfo buf, uint8 xl_info, char *rec);
+   void        (*rm_desc) (StringInfo buf, uint8 xl_info, char *rec);
 } RmgrDescData;
 
 extern const RmgrDescData RmgrDescTable[];
 
-#endif /* RMGRDESC_H */
+#endif   /* RMGRDESC_H */
index 24dab1f3362efb161578b0356ba8d874f74ff262..8ff662370969fa32da832844dc4dcca4d500aa4a 100644 (file)
@@ -162,7 +162,8 @@ char       *index_tablespace = NULL;
 
 bool       use_log;            /* log transaction latencies to a file */
 bool       use_quiet;          /* quiet logging onto stderr */
-int            agg_interval;       /* log aggregates instead of individual transactions */
+int            agg_interval;       /* log aggregates instead of individual
+                                * transactions */
 bool       is_connect;         /* establish connection for each transaction */
 bool       is_latencies;       /* report per-command latencies */
 int            main_pid;           /* main process id used in log filename */
@@ -261,13 +262,14 @@ typedef struct
 typedef struct
 {
 
-   long    start_time;         /* when does the interval start */
-   int     cnt;                /* number of transactions */
-   double  min_duration;       /* min/max durations */
-   double  max_duration;
-   double  sum;                /* sum(duration), sum(duration^2) - for estimates */
-   double  sum2;
-   
+   long        start_time;     /* when does the interval start */
+   int         cnt;            /* number of transactions */
+   double      min_duration;   /* min/max durations */
+   double      max_duration;
+   double      sum;            /* sum(duration), sum(duration^2) - for
+                                * estimates */
+   double      sum2;
+
 } AggVals;
 
 static Command **sql_files[MAX_FILES]; /* SQL script files */
@@ -874,12 +876,13 @@ clientDone(CState *st, bool ok)
 }
 
 static
-void agg_vals_init(AggVals * aggs, instr_time start)
+void
+agg_vals_init(AggVals *aggs, instr_time start)
 {
    /* basic counters */
-   aggs->cnt = 0;      /* number of transactions */
-   aggs->sum = 0;      /* SUM(duration) */
-   aggs->sum2 = 0;     /* SUM(duration*duration) */
+   aggs->cnt = 0;              /* number of transactions */
+   aggs->sum = 0;              /* SUM(duration) */
+   aggs->sum2 = 0;             /* SUM(duration*duration) */
 
    /* min and max transaction duration */
    aggs->min_duration = 0;
@@ -891,7 +894,7 @@ void agg_vals_init(AggVals * aggs, instr_time start)
 
 /* return false iff client should be disconnected */
 static bool
-doCustom(TState *thread, CState *st, instr_time *conn_time, FILE *logfile, AggVals * agg)
+doCustom(TState *thread, CState *st, instr_time *conn_time, FILE *logfile, AggVals *agg)
 {
    PGresult   *res;
    Command   **commands;
@@ -964,31 +967,39 @@ top:
                /* should we aggregate the results or not? */
                if (agg_interval > 0)
                {
-                   /* are we still in the same interval? if yes, accumulate the
-                   * values (print them otherwise) */
+                   /*
+                    * are we still in the same interval? if yes, accumulate
+                    * the values (print them otherwise)
+                    */
                    if (agg->start_time + agg_interval >= INSTR_TIME_GET_DOUBLE(now))
                    {
                        agg->cnt += 1;
-                       agg->sum  += usec;
+                       agg->sum += usec;
                        agg->sum2 += usec * usec;
 
                        /* first in this aggregation interval */
                        if ((agg->cnt == 1) || (usec < agg->min_duration))
-                           agg->min_duration =  usec;
+                           agg->min_duration = usec;
 
                        if ((agg->cnt == 1) || (usec > agg->max_duration))
                            agg->max_duration = usec;
                    }
                    else
                    {
-                       /* Loop until we reach the interval of the current transaction (and
-                        * print all the empty intervals in between). */
+                       /*
+                        * Loop until we reach the interval of the current
+                        * transaction (and print all the empty intervals in
+                        * between).
+                        */
                        while (agg->start_time + agg_interval < INSTR_TIME_GET_DOUBLE(now))
                        {
-                           /* This is a non-Windows branch (thanks to the ifdef in usage), so
-                            * we don't need to handle this in a special way (see below). */
+                           /*
+                            * This is a non-Windows branch (thanks to the
+                            * ifdef in usage), so we don't need to handle
+                            * this in a special way (see below).
+                            */
                            fprintf(logfile, "%ld %d %.0f %.0f %.0f %.0f\n",
-                                   agg->start_time, agg->cnt, agg->sum, agg->sum2,
+                             agg->start_time, agg->cnt, agg->sum, agg->sum2,
                                    agg->min_duration, agg->max_duration);
 
                            /* move to the next inteval */
@@ -1002,7 +1013,10 @@ top:
                            agg->sum2 = 0;
                        }
 
-                       /* and now update the reset values (include the current) */
+                       /*
+                        * and now update the reset values (include the
+                        * current)
+                        */
                        agg->cnt = 1;
                        agg->min_duration = usec;
                        agg->max_duration = usec;
@@ -1014,12 +1028,20 @@ top:
                {
                    /* no, print raw transactions */
 #ifndef WIN32
-                   /* This is more than we really ought to know about instr_time */
+
+                   /*
+                    * This is more than we really ought to know about
+                    * instr_time
+                    */
                    fprintf(logfile, "%d %d %.0f %d %ld %ld\n",
                            st->id, st->cnt, usec, st->use_file,
                            (long) now.tv_sec, (long) now.tv_usec);
 #else
-                   /* On Windows, instr_time doesn't provide a timestamp anyway */
+
+                   /*
+                    * On Windows, instr_time doesn't provide a timestamp
+                    * anyway
+                    */
                    fprintf(logfile, "%d %d %.0f %d 0 0\n",
                            st->id, st->cnt, usec, st->use_file);
 #endif
@@ -1234,11 +1256,11 @@ top:
            }
 
            /*
-            * getrand() needs to be able to subtract max from min and add
-            * one to the result without overflowing.  Since we know max > min,
-            * we can detect overflow just by checking for a negative result.
-            * But we must check both that the subtraction doesn't overflow,
-            * and that adding one to the result doesn't overflow either.
+            * getrand() needs to be able to subtract max from min and add one
+            * to the result without overflowing.  Since we know max > min, we
+            * can detect overflow just by checking for a negative result. But
+            * we must check both that the subtraction doesn't overflow, and
+            * that adding one to the result doesn't overflow either.
             */
            if (max - min < 0 || (max - min) + 1 < 0)
            {
@@ -1418,7 +1440,6 @@ disconnect_all(CState *state, int length)
 static void
 init(bool is_no_vacuum)
 {
-
 /* The scale factor at/beyond which 32bit integers are incapable of storing
  * 64bit values.
  *
@@ -1446,8 +1467,8 @@ init(bool is_no_vacuum)
        {
            "pgbench_history",
            scale >= SCALE_32BIT_THRESHOLD
-               ? "tid int,bid int,aid bigint,delta int,mtime timestamp,filler char(22)"
-               : "tid int,bid int,aid    int,delta int,mtime timestamp,filler char(22)",
+           ? "tid int,bid int,aid bigint,delta int,mtime timestamp,filler char(22)"
+           : "tid int,bid int,aid    int,delta int,mtime timestamp,filler char(22)",
            0
        },
        {
@@ -1458,8 +1479,8 @@ init(bool is_no_vacuum)
        {
            "pgbench_accounts",
            scale >= SCALE_32BIT_THRESHOLD
-               ? "aid bigint not null,bid int,abalance int,filler char(84)"
-               : "aid    int not null,bid int,abalance int,filler char(84)",
+           ? "aid bigint not null,bid int,abalance int,filler char(84)"
+           : "aid    int not null,bid int,abalance int,filler char(84)",
            1
        },
        {
@@ -1488,8 +1509,10 @@ init(bool is_no_vacuum)
    int64       k;
 
    /* used to track elapsed time and estimate of the remaining time */
-   instr_time  start, diff;
-   double      elapsed_sec, remaining_sec;
+   instr_time  start,
+               diff;
+   double      elapsed_sec,
+               remaining_sec;
    int         log_interval = 1;
 
    if ((con = doConnect()) == NULL)
@@ -1573,9 +1596,11 @@ init(bool is_no_vacuum)
            exit(1);
        }
 
-       /* If we want to stick with the original logging, print a message each
-        * 100k inserted rows. */
-       if ((! use_quiet) && (j % 100000 == 0))
+       /*
+        * If we want to stick with the original logging, print a message each
+        * 100k inserted rows.
+        */
+       if ((!use_quiet) && (j % 100000 == 0))
        {
            INSTR_TIME_SET_CURRENT(diff);
            INSTR_TIME_SUBTRACT(diff, start);
@@ -1584,9 +1609,9 @@ init(bool is_no_vacuum)
            remaining_sec = (scale * naccounts - j) * elapsed_sec / j;
 
            fprintf(stderr, INT64_FORMAT " of " INT64_FORMAT " tuples (%d%%) done (elapsed %.2f s, remaining %.2f s).\n",
-                           j, (int64)naccounts * scale,
-                           (int) (((int64) j * 100) / (naccounts * scale)),
-                           elapsed_sec, remaining_sec);
+                   j, (int64) naccounts * scale,
+                   (int) (((int64) j * 100) / (naccounts * scale)),
+                   elapsed_sec, remaining_sec);
        }
        /* let's not call the timing for each row, but only each 100 rows */
        else if (use_quiet && (j % 100 == 0))
@@ -1598,14 +1623,15 @@ init(bool is_no_vacuum)
            remaining_sec = (scale * naccounts - j) * elapsed_sec / j;
 
            /* have we reached the next interval (or end)? */
-           if ((j == scale * naccounts) || (elapsed_sec >= log_interval * LOG_STEP_SECONDS)) {
+           if ((j == scale * naccounts) || (elapsed_sec >= log_interval * LOG_STEP_SECONDS))
+           {
 
                fprintf(stderr, INT64_FORMAT " of " INT64_FORMAT " tuples (%d%%) done (elapsed %.2f s, remaining %.2f s).\n",
-                       j, (int64)naccounts * scale,
+                       j, (int64) naccounts * scale,
                        (int) (((int64) j * 100) / (naccounts * scale)), elapsed_sec, remaining_sec);
 
                /* skip to the next interval */
-               log_interval = (int)ceil(elapsed_sec/LOG_STEP_SECONDS);
+               log_interval = (int) ceil(elapsed_sec / LOG_STEP_SECONDS);
            }
        }
 
@@ -2393,17 +2419,20 @@ main(int argc, char **argv)
        exit(1);
    }
 
-   if (agg_interval > 0 && (! use_log)) {
+   if (agg_interval > 0 && (!use_log))
+   {
        fprintf(stderr, "log aggregation is allowed only when actually logging transactions\n");
        exit(1);
    }
 
-   if ((duration > 0) && (agg_interval > duration)) {
+   if ((duration > 0) && (agg_interval > duration))
+   {
        fprintf(stderr, "number of seconds for aggregation (%d) must not be higher that test duration (%d)\n", agg_interval, duration);
        exit(1);
    }
 
-   if ((duration > 0) && (agg_interval > 0) && (duration % agg_interval != 0)) {
+   if ((duration > 0) && (agg_interval > 0) && (duration % agg_interval != 0))
+   {
        fprintf(stderr, "duration (%d) must be a multiple of aggregation interval (%d)\n", duration, agg_interval);
        exit(1);
    }
@@ -2670,7 +2699,7 @@ threadRun(void *arg)
    AggVals     aggs;
 
    result = pg_malloc(sizeof(TResult));
-   
+
    INSTR_TIME_SET_ZERO(result->conn_time);
 
    /* open log file if requested */
@@ -2706,7 +2735,7 @@ threadRun(void *arg)
    INSTR_TIME_SUBTRACT(result->conn_time, thread->start_time);
 
    agg_vals_init(&aggs, thread->start_time);
-   
+
    /* send start up queries in async manner */
    for (i = 0; i < nstate; i++)
    {
index f2b02d0cd7fa9a43ac2a07328ed0c2e7a5df0e1c..cd48c143195b102b2f9fc72c6ffa50891ecb0d0f 100644 (file)
@@ -117,14 +117,11 @@ mp_result mp_int_mul_value(mp_int a, int value, mp_int c);
 mp_result  mp_int_mul_pow2(mp_int a, int p2, mp_int c);
 mp_result  mp_int_sqr(mp_int a, mp_int c);     /* c = a * a */
 
-mp_result
-mp_int_div(mp_int a, mp_int b, /* q = a / b */
+mp_result mp_int_div(mp_int a, mp_int b,   /* q = a / b */
           mp_int q, mp_int r); /* r = a % b */
-mp_result
-mp_int_div_value(mp_int a, int value,  /* q = a / value */
+mp_result mp_int_div_value(mp_int a, int value,    /* q = a / value */
                 mp_int q, int *r);     /* r = a % value */
-mp_result
-mp_int_div_pow2(mp_int a, int p2,      /* q = a / 2^p2  */
+mp_result mp_int_div_pow2(mp_int a, int p2,        /* q = a / 2^p2  */
                mp_int q, mp_int r);    /* r = q % 2^p2  */
 mp_result  mp_int_mod(mp_int a, mp_int m, mp_int c);   /* c = a % m */
 
@@ -143,17 +140,13 @@ int           mp_int_divisible_value(mp_int a, int v);
 /* Returns k >= 0 such that z = 2^k, if one exists; otherwise < 0 */
 int            mp_int_is_pow2(mp_int z);
 
-mp_result
-mp_int_exptmod(mp_int a, mp_int b, mp_int m,
+mp_result mp_int_exptmod(mp_int a, mp_int b, mp_int m,
               mp_int c);       /* c = a^b (mod m) */
-mp_result
-mp_int_exptmod_evalue(mp_int a, int value,
+mp_result mp_int_exptmod_evalue(mp_int a, int value,
                      mp_int m, mp_int c);      /* c = a^v (mod m) */
-mp_result
-mp_int_exptmod_bvalue(int value, mp_int b,
+mp_result mp_int_exptmod_bvalue(int value, mp_int b,
                      mp_int m, mp_int c);      /* c = v^b (mod m) */
-mp_result
-mp_int_exptmod_known(mp_int a, mp_int b,
+mp_result mp_int_exptmod_known(mp_int a, mp_int b,
                     mp_int m, mp_int mu,
                     mp_int c); /* c = a^b (mod m) */
 mp_result  mp_int_redux_const(mp_int m, mp_int c);
@@ -162,8 +155,7 @@ mp_result   mp_int_invmod(mp_int a, mp_int m, mp_int c);        /* c = 1/a (mod m) */
 
 mp_result  mp_int_gcd(mp_int a, mp_int b, mp_int c);   /* c = gcd(a, b)   */
 
-mp_result
-mp_int_egcd(mp_int a, mp_int b, mp_int c,      /* c = gcd(a, b)   */
+mp_result mp_int_egcd(mp_int a, mp_int b, mp_int c,        /* c = gcd(a, b)   */
            mp_int x, mp_int y);    /* c = ax + by     */
 
 mp_result  mp_int_sqrt(mp_int a, mp_int c);    /* c = floor(sqrt(q)) */
index 7ae01ccc4dbb66aec89a37a91632c1c7057675f1..3022abf75d8cdab1f661943fff073be52bbfc687 100644 (file)
@@ -265,8 +265,7 @@ int         pgp_s2k_read(PullFilter *src, PGP_S2K *s2k);
 int            pgp_s2k_process(PGP_S2K *s2k, int cipher, const uint8 *key, int klen);
 
 typedef struct PGP_CFB PGP_CFB;
-int
-pgp_cfb_create(PGP_CFB **ctx_p, int algo,
+int pgp_cfb_create(PGP_CFB **ctx_p, int algo,
               const uint8 *key, int key_len, int recync, uint8 *iv);
 void       pgp_cfb_free(PGP_CFB *ctx);
 int            pgp_cfb_encrypt(PGP_CFB *ctx, const uint8 *data, int len, uint8 *dst);
index 98aa7c80c085f6d59e446a8713d7af712104194c..075d78131a017b88f6ab4ae8439466dbfdbbe23d 100644 (file)
@@ -124,7 +124,7 @@ pgrowlocks(PG_FUNCTION_ARGS)
    /* scan the relation */
    while ((tuple = heap_getnext(scan, ForwardScanDirection)) != NULL)
    {
-       HTSU_Result htsu;
+       HTSU_Result htsu;
        TransactionId xmax;
        uint16      infomask;
 
@@ -152,7 +152,7 @@ pgrowlocks(PG_FUNCTION_ARGS)
            values = (char **) palloc(mydata->ncolumns * sizeof(char *));
 
            values[Atnum_tid] = (char *) DirectFunctionCall1(tidout,
-                                                            PointerGetDatum(&tuple->t_self));
+                                           PointerGetDatum(&tuple->t_self));
 
            values[Atnum_xmax] = palloc(NCHARS * sizeof(char));
            snprintf(values[Atnum_xmax], NCHARS, "%d", xmax);
@@ -166,7 +166,7 @@ pgrowlocks(PG_FUNCTION_ARGS)
                values[Atnum_ismulti] = pstrdup("true");
 
                allow_old = !(infomask & HEAP_LOCK_MASK) &&
-                            (infomask & HEAP_XMAX_LOCK_ONLY);
+                   (infomask & HEAP_XMAX_LOCK_ONLY);
                nmembers = GetMultiXactIdMembers(xmax, &members, allow_old);
                if (nmembers == -1)
                {
@@ -280,8 +280,8 @@ pgrowlocks(PG_FUNCTION_ARGS)
            result = HeapTupleGetDatum(tuple);
 
            /*
-            * no need to pfree what we allocated; it's on a short-lived memory
-            * context anyway
+            * no need to pfree what we allocated; it's on a short-lived
+            * memory context anyway
             */
 
            SRF_RETURN_NEXT(funcctx, result);
index 984ff7c45a063580774eaad6276b31790c9334ed..97f897ec1e5bb17d94ba170c0190bdd9d8b044bf 100644 (file)
@@ -93,7 +93,7 @@ typedef struct GinIndexStat
 {
    int32       version;
 
-   BlockNumber pending_pages;
+   BlockNumber pending_pages;
    int64       pending_tuples;
 } GinIndexStat;
 
@@ -324,7 +324,7 @@ pgstatginindex(PG_FUNCTION_ARGS)
    Relation    rel;
    Buffer      buffer;
    Page        page;
-   GinMetaPageData *metadata;
+   GinMetaPageData *metadata;
    GinIndexStat stats;
    HeapTuple   tuple;
    TupleDesc   tupleDesc;
@@ -351,7 +351,7 @@ pgstatginindex(PG_FUNCTION_ARGS)
    if (RELATION_IS_OTHER_TEMP(rel))
        ereport(ERROR,
                (errcode(ERRCODE_FEATURE_NOT_SUPPORTED),
-                errmsg("cannot access temporary indexes of other sessions")));
+              errmsg("cannot access temporary indexes of other sessions")));
 
    /*
     * Read metapage
index 7b9e8c1b6fa67b530e3013ec8365a670a75916b7..ab098bea3af616c55cc7571936a8448b5b8b40d9 100644 (file)
@@ -326,7 +326,7 @@ configure_remote_session(PGconn *conn)
     * anyway.  However it makes the regression test outputs more predictable.
     *
     * We don't risk setting remote zone equal to ours, since the remote
-    * server might use a different timezone database.  Instead, use UTC
+    * server might use a different timezone database.  Instead, use UTC
     * (quoted, because very old servers are picky about case).
     */
    do_sql_command(conn, "SET timezone = 'UTC'");
index 49dfe2c5edb0f480c36d622c15fae3b83cb4d432..cbfecc4dd4235c74d7e42d7ae3be40bbf3bd921c 100644 (file)
@@ -133,7 +133,7 @@ typedef struct PgFdwScanState
 
    /* extracted fdw_private data */
    char       *query;          /* text of SELECT command */
-   List       *retrieved_attrs; /* list of retrieved attribute numbers */
+   List       *retrieved_attrs;    /* list of retrieved attribute numbers */
 
    /* for remote query execution */
    PGconn     *conn;           /* connection for the scan */
@@ -174,7 +174,7 @@ typedef struct PgFdwModifyState
    char       *query;          /* text of INSERT/UPDATE/DELETE command */
    List       *target_attrs;   /* list of target attribute numbers */
    bool        has_returning;  /* is there a RETURNING clause? */
-   List       *retrieved_attrs; /* attr numbers retrieved by RETURNING */
+   List       *retrieved_attrs;    /* attr numbers retrieved by RETURNING */
 
    /* info about parameters for prepared statement */
    AttrNumber  ctidAttno;      /* attnum of input resjunk ctid column */
@@ -192,7 +192,7 @@ typedef struct PgFdwAnalyzeState
 {
    Relation    rel;            /* relcache entry for the foreign table */
    AttInMetadata *attinmeta;   /* attribute datatype conversion metadata */
-   List       *retrieved_attrs; /* attr numbers retrieved by query */
+   List       *retrieved_attrs;    /* attr numbers retrieved by query */
 
    /* collected sample rows */
    HeapTuple  *rows;           /* array of size targrows */
@@ -424,8 +424,8 @@ postgresGetForeignRelSize(PlannerInfo *root,
 
    /*
     * If the table or the server is configured to use remote estimates,
-    * identify which user to do remote access as during planning.  This
-    * should match what ExecCheckRTEPerms() does.  If we fail due to lack of
+    * identify which user to do remote access as during planning.  This
+    * should match what ExecCheckRTEPerms() does.  If we fail due to lack of
     * permissions, the query would have failed at runtime anyway.
     */
    if (fpinfo->use_remote_estimate)
@@ -447,7 +447,7 @@ postgresGetForeignRelSize(PlannerInfo *root,
 
    /*
     * Identify which attributes will need to be retrieved from the remote
-    * server.  These include all attrs needed for joins or final output, plus
+    * server.  These include all attrs needed for joins or final output, plus
     * all attrs used in the local_conds.  (Note: if we end up using a
     * parameterized scan, it's possible that some of the join clauses will be
     * sent to the remote and thus we wouldn't really need to retrieve the
@@ -921,7 +921,7 @@ postgresBeginForeignScan(ForeignScanState *node, int eflags)
    fsstate->query = strVal(list_nth(fsplan->fdw_private,
                                     FdwScanPrivateSelectSql));
    fsstate->retrieved_attrs = (List *) list_nth(fsplan->fdw_private,
-                                                FdwScanPrivateRetrievedAttrs);
+                                              FdwScanPrivateRetrievedAttrs);
 
    /* Create contexts for batches of tuples and per-tuple temp workspace. */
    fsstate->batch_cxt = AllocSetContextCreate(estate->es_query_cxt,
@@ -1305,7 +1305,7 @@ postgresBeginForeignModify(ModifyTableState *mtstate,
    fmstate->has_returning = intVal(list_nth(fdw_private,
                                             FdwModifyPrivateHasReturning));
    fmstate->retrieved_attrs = (List *) list_nth(fdw_private,
-                                                FdwModifyPrivateRetrievedAttrs);
+                                            FdwModifyPrivateRetrievedAttrs);
 
    /* Create context for per-tuple temp workspace. */
    fmstate->temp_cxt = AllocSetContextCreate(estate->es_query_cxt,
@@ -1903,7 +1903,7 @@ create_cursor(ForeignScanState *node)
     * Notice that we pass NULL for paramTypes, thus forcing the remote server
     * to infer types for all parameters.  Since we explicitly cast every
     * parameter (see deparse.c), the "inference" is trivial and will produce
-    * the desired result.  This allows us to avoid assuming that the remote
+    * the desired result.  This allows us to avoid assuming that the remote
     * server has the same OIDs we do for the parameters' types.
     *
     * We don't use a PG_TRY block here, so be careful not to throw error
@@ -2488,7 +2488,7 @@ analyze_row_processor(PGresult *res, int row, PgFdwAnalyzeState *astate)
        astate->rows[pos] = make_tuple_from_result_row(res, row,
                                                       astate->rel,
                                                       astate->attinmeta,
-                                                      astate->retrieved_attrs,
+                                                    astate->retrieved_attrs,
                                                       astate->temp_cxt);
 
        MemoryContextSwitchTo(oldcontext);
index 2939d2b61da5ee417ee1c26ebc3c1c7aa90e8853..c782d4fea12055e97f06542911292dc82992fb79 100644 (file)
@@ -71,6 +71,6 @@ extern void deparseDeleteSql(StringInfo buf, PlannerInfo *root,
                 List **retrieved_attrs);
 extern void deparseAnalyzeSizeSql(StringInfo buf, Relation rel);
 extern void deparseAnalyzeSql(StringInfo buf, Relation rel,
-                             List **retrieved_attrs);
+                 List **retrieved_attrs);
 
 #endif   /* POSTGRES_FDW_H */
index a1320e86381a9b398b8d6a39cdd4f68242d199c5..d950b3e96419eabff9048dd9e15319815c391441 100644 (file)
@@ -98,7 +98,7 @@ sepgsql_object_access(ObjectAccessType access,
        case OAT_POST_CREATE:
            {
                ObjectAccessPostCreate *pc_arg = arg;
-               bool    is_internal;
+               bool        is_internal;
 
                is_internal = pc_arg ? pc_arg->is_internal : false;
 
@@ -107,7 +107,7 @@ sepgsql_object_access(ObjectAccessType access,
                    case DatabaseRelationId:
                        Assert(!is_internal);
                        sepgsql_database_post_create(objectId,
-                                                    sepgsql_context_info.createdb_dtemplate);
+                                   sepgsql_context_info.createdb_dtemplate);
                        break;
 
                    case NamespaceRelationId:
@@ -190,8 +190,8 @@ sepgsql_object_access(ObjectAccessType access,
 
        case OAT_POST_ALTER:
            {
-               ObjectAccessPostAlter  *pa_arg = arg;
-               bool    is_internal = pa_arg->is_internal;
+               ObjectAccessPostAlter *pa_arg = arg;
+               bool        is_internal = pa_arg->is_internal;
 
                switch (classId)
                {
@@ -207,21 +207,21 @@ sepgsql_object_access(ObjectAccessType access,
 
                    case RelationRelationId:
                        if (subId == 0)
-                        {
+                       {
                            /*
                             * A case when we don't want to apply permission
                             * check is that relation is internally altered
-                            * without user's intention. E.g, no need to
-                            * check on toast table/index to be renamed at
-                            * end of the table rewrites.
+                            * without user's intention. E.g, no need to check
+                            * on toast table/index to be renamed at end of
+                            * the table rewrites.
                             */
                            if (is_internal)
-                                break;
+                               break;
 
                            sepgsql_relation_setattr(objectId);
-                        }
-                        else
-                            sepgsql_attribute_setattr(objectId, subId);
+                       }
+                       else
+                           sepgsql_attribute_setattr(objectId, subId);
                        break;
 
                    case ProcedureRelationId:
@@ -238,11 +238,11 @@ sepgsql_object_access(ObjectAccessType access,
 
        case OAT_NAMESPACE_SEARCH:
            {
-               ObjectAccessNamespaceSearch   *ns_arg = arg;
+               ObjectAccessNamespaceSearch *ns_arg = arg;
 
                /*
-                * If stacked extension already decided not to allow users
-                * to search this schema, we just stick with that decision.
+                * If stacked extension already decided not to allow users to
+                * search this schema, we just stick with that decision.
                 */
                if (!ns_arg->result)
                    break;
index 6146399e8079e17ab251018aba7bfa3abd46ab3d..17b832efe228be5b46fa578058341ae97f48cd7c 100644 (file)
@@ -351,9 +351,8 @@ sepgsql_fmgr_hook(FmgrHookEventType event,
                 *
                 * Also, db_procedure:entrypoint permission should be checked
                 * whether this procedure can perform as an entrypoint of the
-                * trusted procedure, or not.
-                * Note that db_procedure:execute permission shall be checked
-                * individually.
+                * trusted procedure, or not. Note that db_procedure:execute
+                * permission shall be checked individually.
                 */
                if (stack->new_label)
                {
index 0230028b2a832e10970e16c8f5f9ab22ac539c37..c89f31a789ce7ef4d348fa91dc228baa8afffec5 100644 (file)
@@ -236,16 +236,16 @@ sepgsql_proc_relabel(Oid functionId, const char *seclabel)
 void
 sepgsql_proc_setattr(Oid functionId)
 {
-   Relation        rel;
-   ScanKeyData     skey;
-   SysScanDesc     sscan;
-   HeapTuple       oldtup;
-   HeapTuple       newtup;
-   Form_pg_proc    oldform;
-   Form_pg_proc    newform;
-   uint32          required;
-   ObjectAddress   object;
-   char           *audit_name;
+   Relation    rel;
+   ScanKeyData skey;
+   SysScanDesc sscan;
+   HeapTuple   oldtup;
+   HeapTuple   newtup;
+   Form_pg_proc oldform;
+   Form_pg_proc newform;
+   uint32      required;
+   ObjectAddress object;
+   char       *audit_name;
 
    /*
     * Fetch newer catalog
@@ -297,7 +297,7 @@ sepgsql_proc_setattr(Oid functionId)
 
    sepgsql_avc_check_perms(&object,
                            SEPG_CLASS_DB_PROCEDURE,
-                            required,
+                           required,
                            audit_name,
                            true);
    /* cleanups */
index c1fd1c2e19e3bceb5dc4830c2f996a621eb99466..a3005ad89763d01330b6393fb7334ffb230477db 100644 (file)
@@ -31,7 +31,7 @@
 
 #include "sepgsql.h"
 
-static void        sepgsql_index_modify(Oid indexOid);
+static void sepgsql_index_modify(Oid indexOid);
 
 /*
  * sepgsql_attribute_post_create
@@ -571,13 +571,13 @@ sepgsql_relation_relabel(Oid relOid, const char *seclabel)
 void
 sepgsql_relation_setattr(Oid relOid)
 {
-   Relation        rel;
-   ScanKeyData     skey;
-   SysScanDesc     sscan;
-   HeapTuple       oldtup;
-   HeapTuple       newtup;
-   Form_pg_class   oldform;
-   Form_pg_class   newform;
+   Relation    rel;
+   ScanKeyData skey;
+   SysScanDesc sscan;
+   HeapTuple   oldtup;
+   HeapTuple   newtup;
+   Form_pg_class oldform;
+   Form_pg_class newform;
    ObjectAddress object;
    char       *audit_name;
    uint16_t    tclass;
@@ -680,8 +680,8 @@ sepgsql_relation_setattr_extra(Relation catalog,
                               AttrNumber anum_relation_id,
                               AttrNumber anum_extra_id)
 {
-   ScanKeyData skey;
-   SysScanDesc sscan;
+   ScanKeyData skey;
+   SysScanDesc sscan;
    HeapTuple   tuple;
    Datum       datum;
    bool        isnull;
@@ -708,7 +708,7 @@ sepgsql_relation_setattr_extra(Relation catalog,
 
 /*
  * sepgsql_index_modify
- *         Handle index create, update, drop
+ *     Handle index create, update, drop
  *
  * Unlike other relation kinds, indexes do not have their own security labels,
  * so instead of doing checks directly, treat them as extra attributes of their
index 442ccd4f61a87c8cc24da7b6c88c6813e8049780..709de23adccf2bdf6495b1c1a51076be1a585119 100644 (file)
@@ -81,6 +81,7 @@ sepgsql_schema_post_create(Oid namespaceId)
                                      tcontext,
                                      SEPG_CLASS_DB_SCHEMA,
                                      nsp_name);
+
    /*
     * check db_schema:{create}
     */
index 5c122c18321940d880036c84f0844773763b12e7..2770d895b2ef6e4b73585f6ea3a654d2ee4962fe 100644 (file)
@@ -40,7 +40,7 @@ typedef struct TrieChar
 static TrieChar *
 placeChar(TrieChar *node, unsigned char *str, int lenstr, char *replaceTo, int replacelen)
 {
-   TrieChar *curnode;
+   TrieChar   *curnode;
 
    if (!node)
    {
@@ -77,7 +77,7 @@ placeChar(TrieChar *node, unsigned char *str, int lenstr, char *replaceTo, int r
 static TrieChar *
 initTrie(char *filename)
 {
-   TrieChar *volatile rootTrie = NULL;
+   TrieChar   *volatile rootTrie = NULL;
    MemoryContext ccxt = CurrentMemoryContext;
    tsearch_readline_state trst;
    volatile bool skip;
@@ -162,8 +162,8 @@ initTrie(char *filename)
 
                if (state >= 3)
                    rootTrie = placeChar(rootTrie,
-                                              (unsigned char *) src, srclen,
-                                              trg, trglen);
+                                        (unsigned char *) src, srclen,
+                                        trg, trglen);
 
                pfree(line);
            }
index 607849c9120ec2b0f6c85ef98d2528276c675a53..70f7ea70ba08dc11eb1d037aabc2d18f75e49a32 100644 (file)
@@ -82,7 +82,7 @@ vacuumlo(const char *database, const struct _param * param)
     */
    do
    {
-#define PARAMS_ARRAY_SIZE      7
+#define PARAMS_ARRAY_SIZE     7
 
        const char *keywords[PARAMS_ARRAY_SIZE];
        const char *values[PARAMS_ARRAY_SIZE];
index 344455cd579e7409fad3418d930094496c469760..414721a70fe9e43737d3b55c81ef10e34ba795e4 100644 (file)
 
 PG_MODULE_MAGIC;
 
-void   _PG_init(void);
+void       _PG_init(void);
 
 /* flags set by signal handlers */
 static volatile sig_atomic_t got_sighup = false;
 static volatile sig_atomic_t got_sigterm = false;
 
 /* GUC variables */
-static int  worker_spi_naptime = 10;
-static int  worker_spi_total_workers = 2;
+static int worker_spi_naptime = 10;
+static int worker_spi_total_workers = 2;
 
 
 typedef struct worktable
 {
-   const char     *schema;
-   const char     *name;
+   const char *schema;
+   const char *name;
 } worktable;
 
 /*
  * Signal handler for SIGTERM
- *         Set a flag to let the main loop to terminate, and set our latch to wake
- *         it up.
+ *     Set a flag to let the main loop to terminate, and set our latch to wake
+ *     it up.
  */
 static void
 worker_spi_sigterm(SIGNAL_ARGS)
@@ -79,8 +79,8 @@ worker_spi_sigterm(SIGNAL_ARGS)
 
 /*
  * Signal handler for SIGHUP
- *         Set a flag to let the main loop to reread the config file, and set
- *         our latch to wake it up.
+ *     Set a flag to let the main loop to reread the config file, and set
+ *     our latch to wake it up.
  */
 static void
 worker_spi_sighup(SIGNAL_ARGS)
@@ -97,10 +97,10 @@ worker_spi_sighup(SIGNAL_ARGS)
 static void
 initialize_worker_spi(worktable *table)
 {
-   int     ret;
-   int     ntup;
-   bool    isnull;
-   StringInfoData  buf;
+   int         ret;
+   int         ntup;
+   bool        isnull;
+   StringInfoData buf;
 
    SetCurrentStatementStartTimestamp();
    StartTransactionCommand();
@@ -132,11 +132,11 @@ initialize_worker_spi(worktable *table)
        appendStringInfo(&buf,
                         "CREATE SCHEMA \"%s\" "
                         "CREATE TABLE \"%s\" ("
-                        "      type text CHECK (type IN ('total', 'delta')), "
+              "        type text CHECK (type IN ('total', 'delta')), "
                         "      value   integer)"
-                        "CREATE UNIQUE INDEX \"%s_unique_total\" ON \"%s\" (type) "
+                 "CREATE UNIQUE INDEX \"%s_unique_total\" ON \"%s\" (type) "
                         "WHERE type = 'total'",
-                        table->schema, table->name, table->name, table->name);
+                      table->schema, table->name, table->name, table->name);
 
        /* set statement start time */
        SetCurrentStatementStartTimestamp();
@@ -156,8 +156,8 @@ initialize_worker_spi(worktable *table)
 static void
 worker_spi_main(void *main_arg)
 {
-   worktable      *table = (worktable *) main_arg;
-   StringInfoData  buf;
+   worktable  *table = (worktable *) main_arg;
+   StringInfoData buf;
 
    /* We're now ready to receive signals */
    BackgroundWorkerUnblockSignals();
@@ -170,7 +170,7 @@ worker_spi_main(void *main_arg)
    initialize_worker_spi(table);
 
    /*
-    * Quote identifiers passed to us.  Note that this must be done after
+    * Quote identifiers passed to us.  Note that this must be done after
     * initialize_worker_spi, because that routine assumes the names are not
     * quoted.
     *
@@ -200,8 +200,8 @@ worker_spi_main(void *main_arg)
     */
    while (!got_sigterm)
    {
-       int     ret;
-       int     rc;
+       int         ret;
+       int         rc;
 
        /*
         * Background workers mustn't call usleep() or any direct equivalent:
@@ -221,27 +221,27 @@ worker_spi_main(void *main_arg)
        /*
         * In case of a SIGHUP, just reload the configuration.
         */
-        if (got_sighup)
-        {
-            got_sighup = false;
-            ProcessConfigFile(PGC_SIGHUP);
-        }
+       if (got_sighup)
+       {
+           got_sighup = false;
+           ProcessConfigFile(PGC_SIGHUP);
+       }
 
        /*
         * Start a transaction on which we can run queries.  Note that each
         * StartTransactionCommand() call should be preceded by a
         * SetCurrentStatementStartTimestamp() call, which sets both the time
         * for the statement we're about the run, and also the transaction
-        * start time.  Also, each other query sent to SPI should probably be
+        * start time.  Also, each other query sent to SPI should probably be
         * preceded by SetCurrentStatementStartTimestamp(), so that statement
         * start time is always up to date.
         *
         * The SPI_connect() call lets us run queries through the SPI manager,
-        * and the PushActiveSnapshot() call creates an "active" snapshot which
-        * is necessary for queries to have MVCC data to work on.
+        * and the PushActiveSnapshot() call creates an "active" snapshot
+        * which is necessary for queries to have MVCC data to work on.
         *
-        * The pgstat_report_activity() call makes our activity visible through
-        * the pgstat views.
+        * The pgstat_report_activity() call makes our activity visible
+        * through the pgstat views.
         */
        SetCurrentStatementStartTimestamp();
        StartTransactionCommand();
@@ -258,12 +258,12 @@ worker_spi_main(void *main_arg)
 
        if (SPI_processed > 0)
        {
-           bool    isnull;
-           int32   val;
+           bool        isnull;
+           int32       val;
 
            val = DatumGetInt32(SPI_getbinval(SPI_tuptable->vals[0],
-                                              SPI_tuptable->tupdesc,
-                                              1, &isnull));
+                                             SPI_tuptable->tupdesc,
+                                             1, &isnull));
            if (!isnull)
                elog(LOG, "%s: count in %s.%s is now %d",
                     MyBgworkerEntry->bgw_name,
@@ -291,36 +291,36 @@ worker_spi_main(void *main_arg)
 void
 _PG_init(void)
 {
-   BackgroundWorker    worker;
-   worktable          *table;
-   unsigned int        i;
-   char                name[20];
+   BackgroundWorker worker;
+   worktable  *table;
+   unsigned int i;
+   char        name[20];
 
    /* get the configuration */
    DefineCustomIntVariable("worker_spi.naptime",
-               "Duration between each check (in seconds).",
-               NULL,
-               &worker_spi_naptime,
-               10,
-               1,
-               INT_MAX,
-               PGC_SIGHUP,
-               0,
-               NULL,
-               NULL,
-               NULL);
+                           "Duration between each check (in seconds).",
+                           NULL,
+                           &worker_spi_naptime,
+                           10,
+                           1,
+                           INT_MAX,
+                           PGC_SIGHUP,
+                           0,
+                           NULL,
+                           NULL,
+                           NULL);
    DefineCustomIntVariable("worker_spi.total_workers",
-               "Number of workers.",
-               NULL,
-               &worker_spi_total_workers,
-               2,
-               1,
-               100,
-               PGC_POSTMASTER,
-               0,
-               NULL,
-               NULL,
-               NULL);
+                           "Number of workers.",
+                           NULL,
+                           &worker_spi_total_workers,
+                           2,
+                           1,
+                           100,
+                           PGC_POSTMASTER,
+                           0,
+                           NULL,
+                           NULL,
+                           NULL);
 
    /* set up common data for all our workers */
    worker.bgw_flags = BGWORKER_SHMEM_ACCESS |
index 7acc8f646ec8a4693fb3fbe925958e80e7dea5e9..2a6be4b1a9954c480761baedb40f7875501ceaae 100644 (file)
@@ -173,7 +173,6 @@ void
 ginFindParents(GinBtree btree, GinBtreeStack *stack,
               BlockNumber rootBlkno)
 {
-
    Page        page;
    Buffer      buffer;
    BlockNumber blkno,
index 46f7ce65635269106e8fc5b847adf10097ba5a09..2f2edb8362628fd63e1367fbfe9b7209f1bd2f1b 100644 (file)
@@ -610,9 +610,9 @@ gistProcessItup(GISTBuildState *buildstate, IndexTuple itup,
        newtup = gistgetadjusted(indexrel, idxtuple, itup, giststate);
        if (newtup)
        {
-           blkno  = gistbufferinginserttuples(buildstate, buffer, level,
-                                              &newtup, 1, childoffnum,
-                                     InvalidBlockNumber, InvalidOffsetNumber);
+           blkno = gistbufferinginserttuples(buildstate, buffer, level,
+                                             &newtup, 1, childoffnum,
+                                   InvalidBlockNumber, InvalidOffsetNumber);
            /* gistbufferinginserttuples() released the buffer */
        }
        else
@@ -680,7 +680,7 @@ gistbufferinginserttuples(GISTBuildState *buildstate, Buffer buffer, int level,
    GISTBuildBuffers *gfbb = buildstate->gfbb;
    List       *splitinfo;
    bool        is_split;
-   BlockNumber placed_to_blk = InvalidBlockNumber;
+   BlockNumber placed_to_blk = InvalidBlockNumber;
 
    is_split = gistplacetopage(buildstate->indexrel,
                               buildstate->freespace,
index cef31ce66e99be832f7f3d00e6b9abc1a40bc43a..e97ab8f3fd59397d21100657fe3fa6c934d70110 100644 (file)
@@ -364,8 +364,9 @@ gistScanPage(IndexScanDesc scan, GISTSearchItem *pageItem, double *myDistances,
                item->blkno = ItemPointerGetBlockNumber(&it->t_tid);
 
                /*
-                * LSN of current page is lsn of parent page for child. We only
-                * have a shared lock, so we need to get the LSN atomically.
+                * LSN of current page is lsn of parent page for child. We
+                * only have a shared lock, so we need to get the LSN
+                * atomically.
                 */
                item->data.parentlsn = BufferGetLSNAtomic(buffer);
            }
index f7d50ddb7120c83c240a06f71338822e34825dd2..b9c1967ebc0161683b7ae3982a0e735841aed85c 100644 (file)
@@ -414,7 +414,7 @@ gistchoose(Relation r, Page p, IndexTuple it,   /* it has compressed entry */
     * some inserts to go to other equally-good subtrees.
     *
     * keep_current_best is -1 if we haven't yet had to make a random choice
-    * whether to keep the current best tuple.  If we have done so, and
+    * whether to keep the current best tuple.  If we have done so, and
     * decided to keep it, keep_current_best is 1; if we've decided to
     * replace, keep_current_best is 0.  (This state will be reset to -1 as
     * soon as we've made the replacement, but sometimes we make the choice in
@@ -810,8 +810,8 @@ gistGetFakeLSN(Relation rel)
    if (rel->rd_rel->relpersistence == RELPERSISTENCE_TEMP)
    {
        /*
-        * Temporary relations are only accessible in our session, so a
-        * simple backend-local counter will do.
+        * Temporary relations are only accessible in our session, so a simple
+        * backend-local counter will do.
         */
        return counter++;
    }
index 3daeea396bedf179046da90fa3402fa76fa0503a..17946bfec3f718ae9b9c4b6d90d50f5ea05669e0 100644 (file)
@@ -38,7 +38,7 @@ static MemoryContext opCtx;       /* working memory for operations */
  * follow-right flag, because that change is not included in the full-page
  * image.  To be sure that the intermediate state with the wrong flag value is
  * not visible to concurrent Hot Standby queries, this function handles
- * restoring the full-page image as well as updating the flag.  (Note that
+ * restoring the full-page image as well as updating the flag. (Note that
  * we never need to do anything else to the child page in the current WAL
  * action.)
  */
@@ -89,7 +89,7 @@ gistRedoPageUpdateRecord(XLogRecPtr lsn, XLogRecord *record)
 
    /*
     * We need to acquire and hold lock on target page while updating the left
-    * child page.  If we have a full-page image of target page, getting the
+    * child page.  If we have a full-page image of target page, getting the
     * lock is a side-effect of restoring that image.  Note that even if the
     * target page no longer exists, we'll still attempt to replay the change
     * on the child page.
index 63be2f37872cb799af2833cc9fc57fd7c44374b9..4508a36bd051bc7e828f157e3eab811865ed5863 100644 (file)
@@ -90,7 +90,7 @@ _hash_doinsert(Relation rel, IndexTuple itup)
 
        /*
         * If the previous iteration of this loop locked what is still the
-        * correct target bucket, we are done.  Otherwise, drop any old lock
+        * correct target bucket, we are done.  Otherwise, drop any old lock
         * and lock what now appears to be the correct bucket.
         */
        if (retry)
index ceb9ef72baaf4f86487cd2aed6e2502e6d6bb607..91661ba0e03a789663cc51731d88b62101fed60b 100644 (file)
@@ -210,7 +210,7 @@ _hash_first(IndexScanDesc scan, ScanDirection dir)
 
        /*
         * If the previous iteration of this loop locked what is still the
-        * correct target bucket, we are done.  Otherwise, drop any old lock
+        * correct target bucket, we are done.  Otherwise, drop any old lock
         * and lock what now appears to be the correct bucket.
         */
        if (retry)
index 9498cbb8a5132582ca09ef072c7b8f1eb02f85ce..834a566f7e09da9855b249c50712ae947851cd71 100644 (file)
@@ -120,32 +120,34 @@ static bool ConditionalMultiXactIdWait(MultiXactId multi,
 static const struct
 {
    LOCKMODE    hwlock;
-   MultiXactStatus lockstatus;
-   MultiXactStatus updstatus;
+   MultiXactStatus lockstatus;
+   MultiXactStatus updstatus;
 }
-tupleLockExtraInfo[MaxLockTupleMode + 1] =
+
+           tupleLockExtraInfo[MaxLockTupleMode + 1] =
 {
-   {   /* LockTupleKeyShare */
+   {                           /* LockTupleKeyShare */
        AccessShareLock,
        MultiXactStatusForKeyShare,
-       -1  /* KeyShare does not allow updating tuples */
+       -1                      /* KeyShare does not allow updating tuples */
    },
-   {   /* LockTupleShare */
+   {                           /* LockTupleShare */
        RowShareLock,
        MultiXactStatusForShare,
-       -1  /* Share does not allow updating tuples */
+       -1                      /* Share does not allow updating tuples */
    },
-   {   /* LockTupleNoKeyExclusive */
+   {                           /* LockTupleNoKeyExclusive */
        ExclusiveLock,
        MultiXactStatusForNoKeyUpdate,
        MultiXactStatusNoKeyUpdate
    },
-   {   /* LockTupleExclusive */
+   {                           /* LockTupleExclusive */
        AccessExclusiveLock,
        MultiXactStatusForUpdate,
        MultiXactStatusUpdate
    }
 };
+
 /* Get the LOCKMODE for a given MultiXactStatus */
 #define LOCKMODE_from_mxstatus(status) \
            (tupleLockExtraInfo[TUPLOCK_from_mxstatus((status))].hwlock)
@@ -168,12 +170,12 @@ tupleLockExtraInfo[MaxLockTupleMode + 1] =
  */
 static const int MultiXactStatusLock[MaxMultiXactStatus + 1] =
 {
-   LockTupleKeyShare,      /* ForKeyShare */
-   LockTupleShare,         /* ForShare */
-   LockTupleNoKeyExclusive,        /* ForNoKeyUpdate */
-   LockTupleExclusive,     /* ForUpdate */
-   LockTupleNoKeyExclusive,        /* NoKeyUpdate */
-   LockTupleExclusive      /* Update */
+   LockTupleKeyShare,          /* ForKeyShare */
+   LockTupleShare,             /* ForShare */
+   LockTupleNoKeyExclusive,    /* ForNoKeyUpdate */
+   LockTupleExclusive,         /* ForUpdate */
+   LockTupleNoKeyExclusive,    /* NoKeyUpdate */
+   LockTupleExclusive          /* Update */
 };
 
 /* Get the LockTupleMode for a given MultiXactStatus */
@@ -365,10 +367,10 @@ heapgetpage(HeapScanDesc scan, BlockNumber page)
     * page. That's how index-only scans work fine in hot standby. A crucial
     * difference between index-only scans and heap scans is that the
     * index-only scan completely relies on the visibility map where as heap
-    * scan looks at the page-level PD_ALL_VISIBLE flag. We are not sure if the
-    * page-level flag can be trusted in the same way, because it might get
-    * propagated somehow without being explicitly WAL-logged, e.g. via a full
-    * page write. Until we can prove that beyond doubt, let's check each
+    * scan looks at the page-level PD_ALL_VISIBLE flag. We are not sure if
+    * the page-level flag can be trusted in the same way, because it might
+    * get propagated somehow without being explicitly WAL-logged, e.g. via a
+    * full page write. Until we can prove that beyond doubt, let's check each
     * tuple for visibility the hard way.
     */
    all_visible = PageIsAllVisible(dp) && !snapshot->takenDuringRecovery;
@@ -1880,7 +1882,7 @@ heap_get_latest_tid(Relation relation,
         * tuple.  Check for XMIN match.
         */
        if (TransactionIdIsValid(priorXmax) &&
-           !TransactionIdEquals(priorXmax, HeapTupleHeaderGetXmin(tp.t_data)))
+         !TransactionIdEquals(priorXmax, HeapTupleHeaderGetXmin(tp.t_data)))
        {
            UnlockReleaseBuffer(buffer);
            break;
@@ -2488,7 +2490,7 @@ compute_infobits(uint16 infomask, uint16 infomask2)
        ((infomask & HEAP_XMAX_IS_MULTI) != 0 ? XLHL_XMAX_IS_MULTI : 0) |
        ((infomask & HEAP_XMAX_LOCK_ONLY) != 0 ? XLHL_XMAX_LOCK_ONLY : 0) |
        ((infomask & HEAP_XMAX_EXCL_LOCK) != 0 ? XLHL_XMAX_EXCL_LOCK : 0) |
-       /* note we ignore HEAP_XMAX_SHR_LOCK here */
+   /* note we ignore HEAP_XMAX_SHR_LOCK here */
        ((infomask & HEAP_XMAX_KEYSHR_LOCK) != 0 ? XLHL_XMAX_KEYSHR_LOCK : 0) |
        ((infomask2 & HEAP_KEYS_UPDATED) != 0 ?
         XLHL_KEYS_UPDATED : 0);
@@ -2730,13 +2732,12 @@ l1:
    }
 
    /*
-    * If this is the first possibly-multixact-able operation in the
-    * current transaction, set my per-backend OldestMemberMXactId setting.
-    * We can be certain that the transaction will never become a member of
-    * any older MultiXactIds than that.  (We have to do this even if we
-    * end up just using our own TransactionId below, since some other
-    * backend could incorporate our XID into a MultiXact immediately
-    * afterwards.)
+    * If this is the first possibly-multixact-able operation in the current
+    * transaction, set my per-backend OldestMemberMXactId setting. We can be
+    * certain that the transaction will never become a member of any older
+    * MultiXactIds than that.  (We have to do this even if we end up just
+    * using our own TransactionId below, since some other backend could
+    * incorporate our XID into a MultiXact immediately afterwards.)
     */
    MultiXactIdSetOldestMember();
 
@@ -2846,7 +2847,7 @@ simple_heap_delete(Relation relation, ItemPointer tid)
 
    result = heap_delete(relation, tid,
                         GetCurrentCommandId(true), InvalidSnapshot,
-                        true /* wait for commit */,
+                        true /* wait for commit */ ,
                         &hufd);
    switch (result)
    {
@@ -2936,7 +2937,7 @@ heap_update(Relation relation, ItemPointer otid, HeapTuple newtup,
    bool        checked_lockers;
    bool        locker_remains;
    TransactionId xmax_new_tuple,
-                 xmax_old_tuple;
+               xmax_old_tuple;
    uint16      infomask_old_tuple,
                infomask2_old_tuple,
                infomask_new_tuple,
@@ -3006,13 +3007,13 @@ heap_update(Relation relation, ItemPointer otid, HeapTuple newtup,
 
    /*
     * If we're not updating any "key" column, we can grab a weaker lock type.
-    * This allows for more concurrency when we are running simultaneously with
-    * foreign key checks.
+    * This allows for more concurrency when we are running simultaneously
+    * with foreign key checks.
     *
-    * Note that if a column gets detoasted while executing the update, but the
-    * value ends up being the same, this test will fail and we will use the
-    * stronger lock.  This is acceptable; the important case to optimize is
-    * updates that don't manipulate key columns, not those that
+    * Note that if a column gets detoasted while executing the update, but
+    * the value ends up being the same, this test will fail and we will use
+    * the stronger lock.  This is acceptable; the important case to optimize
+    * is updates that don't manipulate key columns, not those that
     * serendipitiously arrive at the same key values.
     */
    HeapSatisfiesHOTandKeyUpdate(relation, hot_attrs, key_attrs,
@@ -3026,12 +3027,12 @@ heap_update(Relation relation, ItemPointer otid, HeapTuple newtup,
 
        /*
         * If this is the first possibly-multixact-able operation in the
-        * current transaction, set my per-backend OldestMemberMXactId setting.
-        * We can be certain that the transaction will never become a member of
-        * any older MultiXactIds than that.  (We have to do this even if we
-        * end up just using our own TransactionId below, since some other
-        * backend could incorporate our XID into a MultiXact immediately
-        * afterwards.)
+        * current transaction, set my per-backend OldestMemberMXactId
+        * setting. We can be certain that the transaction will never become a
+        * member of any older MultiXactIds than that.  (We have to do this
+        * even if we end up just using our own TransactionId below, since
+        * some other backend could incorporate our XID into a MultiXact
+        * immediately afterwards.)
         */
        MultiXactIdSetOldestMember();
    }
@@ -3064,7 +3065,7 @@ l2:
    }
    else if (result == HeapTupleBeingUpdated && wait)
    {
-       TransactionId   xwait;
+       TransactionId xwait;
        uint16      infomask;
        bool        can_continue = false;
 
@@ -3073,13 +3074,14 @@ l2:
        /*
         * XXX note that we don't consider the "no wait" case here.  This
         * isn't a problem currently because no caller uses that case, but it
-        * should be fixed if such a caller is introduced.  It wasn't a problem
-        * previously because this code would always wait, but now that some
-        * tuple locks do not conflict with one of the lock modes we use, it is
-        * possible that this case is interesting to handle specially.
+        * should be fixed if such a caller is introduced.  It wasn't a
+        * problem previously because this code would always wait, but now
+        * that some tuple locks do not conflict with one of the lock modes we
+        * use, it is possible that this case is interesting to handle
+        * specially.
         *
-        * This may cause failures with third-party code that calls heap_update
-        * directly.
+        * This may cause failures with third-party code that calls
+        * heap_update directly.
         */
 
        /* must copy state data before unlocking buffer */
@@ -3109,15 +3111,15 @@ l2:
         * gone (or even not sleep at all in some cases); we need to preserve
         * it as locker, unless it is gone completely.
         *
-        * If it's not a multi, we need to check for sleeping conditions before
-        * actually going to sleep.  If the update doesn't conflict with the
-        * locks, we just continue without sleeping (but making sure it is
-        * preserved).
+        * If it's not a multi, we need to check for sleeping conditions
+        * before actually going to sleep.  If the update doesn't conflict
+        * with the locks, we just continue without sleeping (but making sure
+        * it is preserved).
         */
        if (infomask & HEAP_XMAX_IS_MULTI)
        {
-           TransactionId   update_xact;
-           int             remain;
+           TransactionId update_xact;
+           int         remain;
 
            /* wait for multixact */
            MultiXactIdWait((MultiXactId) xwait, mxact_status, &remain,
@@ -3135,18 +3137,18 @@ l2:
                goto l2;
 
            /*
-            * Note that the multixact may not be done by now.  It could have
+            * Note that the multixact may not be done by now.  It could have
             * surviving members; our own xact or other subxacts of this
             * backend, and also any other concurrent transaction that locked
-            * the tuple with KeyShare if we only got TupleLockUpdate.  If this
-            * is the case, we have to be careful to mark the updated tuple
-            * with the surviving members in Xmax.
+            * the tuple with KeyShare if we only got TupleLockUpdate.  If
+            * this is the case, we have to be careful to mark the updated
+            * tuple with the surviving members in Xmax.
             *
-            * Note that there could have been another update in the MultiXact.
-            * In that case, we need to check whether it committed or aborted.
-            * If it aborted we are safe to update it again; otherwise there is
-            * an update conflict, and we have to return HeapTupleUpdated
-            * below.
+            * Note that there could have been another update in the
+            * MultiXact. In that case, we need to check whether it committed
+            * or aborted. If it aborted we are safe to update it again;
+            * otherwise there is an update conflict, and we have to return
+            * HeapTupleUpdated below.
             *
             * In the LockTupleExclusive case, we still need to preserve the
             * surviving members: those would include the tuple locks we had
@@ -3167,21 +3169,21 @@ l2:
        else
        {
            /*
-            * If it's just a key-share locker, and we're not changing the
-            * key columns, we don't need to wait for it to end; but we
-            * need to preserve it as locker.
+            * If it's just a key-share locker, and we're not changing the key
+            * columns, we don't need to wait for it to end; but we need to
+            * preserve it as locker.
             */
            if (HEAP_XMAX_IS_KEYSHR_LOCKED(infomask) && key_intact)
            {
                LockBuffer(buffer, BUFFER_LOCK_EXCLUSIVE);
 
                /*
-                * recheck the locker; if someone else changed the tuple while we
-                * weren't looking, start over.
+                * recheck the locker; if someone else changed the tuple while
+                * we weren't looking, start over.
                 */
                if ((oldtup.t_data->t_infomask & HEAP_XMAX_IS_MULTI) ||
-                   !TransactionIdEquals(HeapTupleHeaderGetRawXmax(oldtup.t_data),
-                                        xwait))
+               !TransactionIdEquals(HeapTupleHeaderGetRawXmax(oldtup.t_data),
+                                    xwait))
                    goto l2;
 
                can_continue = true;
@@ -3194,13 +3196,13 @@ l2:
                LockBuffer(buffer, BUFFER_LOCK_EXCLUSIVE);
 
                /*
-                * xwait is done, but if xwait had just locked the tuple then some
-                * other xact could update this tuple before we get to this point.
-                * Check for xmax change, and start over if so.
+                * xwait is done, but if xwait had just locked the tuple then
+                * some other xact could update this tuple before we get to
+                * this point. Check for xmax change, and start over if so.
                 */
                if ((oldtup.t_data->t_infomask & HEAP_XMAX_IS_MULTI) ||
-                   !TransactionIdEquals(HeapTupleHeaderGetRawXmax(oldtup.t_data),
-                                        xwait))
+               !TransactionIdEquals(HeapTupleHeaderGetRawXmax(oldtup.t_data),
+                                    xwait))
                    goto l2;
 
                /* Otherwise check if it committed or aborted */
@@ -3247,8 +3249,8 @@ l2:
     * visible while we were busy locking the buffer, or during some
     * subsequent window during which we had it unlocked, we'll have to unlock
     * and re-lock, to avoid holding the buffer lock across an I/O.  That's a
-    * bit unfortunate, especially since we'll now have to recheck whether
-    * the tuple has been locked or updated under us, but hopefully it won't
+    * bit unfortunate, especially since we'll now have to recheck whether the
+    * tuple has been locked or updated under us, but hopefully it won't
     * happen very often.
     */
    if (vmbuffer == InvalidBuffer && PageIsAllVisible(page))
@@ -3656,9 +3658,9 @@ heap_tuple_attr_equals(TupleDesc tupdesc, int attrnum,
 
    /*
     * Extract the corresponding values.  XXX this is pretty inefficient if
-    * there are many indexed columns.  Should HeapSatisfiesHOTandKeyUpdate do a
-    * single heap_deform_tuple call on each tuple, instead?  But that doesn't
-    * work for system columns ...
+    * there are many indexed columns.  Should HeapSatisfiesHOTandKeyUpdate do
+    * a single heap_deform_tuple call on each tuple, instead?  But that
+    * doesn't work for system columns ...
     */
    value1 = heap_getattr(tup1, attrnum, tupdesc, &isnull1);
    value2 = heap_getattr(tup2, attrnum, tupdesc, &isnull2);
@@ -3720,12 +3722,12 @@ HeapSatisfiesHOTandKeyUpdate(Relation relation,
                             bool *satisfies_hot, bool *satisfies_key,
                             HeapTuple oldtup, HeapTuple newtup)
 {
-   int     next_hot_attnum;
-   int     next_key_attnum;
-   bool    hot_result = true;
-   bool    key_result = true;
-   bool    key_done = false;
-   bool    hot_done = false;
+   int         next_hot_attnum;
+   int         next_key_attnum;
+   bool        hot_result = true;
+   bool        key_result = true;
+   bool        key_done = false;
+   bool        hot_done = false;
 
    next_hot_attnum = bms_first_member(hot_attrs);
    if (next_hot_attnum == -1)
@@ -3743,8 +3745,8 @@ HeapSatisfiesHOTandKeyUpdate(Relation relation,
 
    for (;;)
    {
-       int     check_now;
-       bool    changed;
+       int         check_now;
+       bool        changed;
 
        /* both bitmapsets are now empty */
        if (key_done && hot_done)
@@ -3813,7 +3815,7 @@ simple_heap_update(Relation relation, ItemPointer otid, HeapTuple tup)
 
    result = heap_update(relation, otid, tup,
                         GetCurrentCommandId(true), InvalidSnapshot,
-                        true /* wait for commit */,
+                        true /* wait for commit */ ,
                         &hufd, &lockmode);
    switch (result)
    {
@@ -3843,7 +3845,7 @@ simple_heap_update(Relation relation, ItemPointer otid, HeapTuple tup)
 static MultiXactStatus
 get_mxact_status_for_lock(LockTupleMode mode, bool is_update)
 {
-   MultiXactStatus     retval;
+   MultiXactStatus retval;
 
    if (is_update)
        retval = tupleLockExtraInfo[mode].updstatus;
@@ -3933,7 +3935,7 @@ l3:
        uint16      infomask;
        uint16      infomask2;
        bool        require_sleep;
-       ItemPointerData t_ctid;
+       ItemPointerData t_ctid;
 
        /* must copy state data before unlocking buffer */
        xwait = HeapTupleHeaderGetRawXmax(tuple->t_data);
@@ -3944,22 +3946,22 @@ l3:
        LockBuffer(*buffer, BUFFER_LOCK_UNLOCK);
 
        /*
-        * If any subtransaction of the current top transaction already holds a
-        * lock as strong or stronger than what we're requesting, we
+        * If any subtransaction of the current top transaction already holds
+        * lock as strong or stronger than what we're requesting, we
         * effectively hold the desired lock already.  We *must* succeed
-        * without trying to take the tuple lock, else we will deadlock against
-        * anyone wanting to acquire a stronger lock.
+        * without trying to take the tuple lock, else we will deadlock
+        * against anyone wanting to acquire a stronger lock.
         */
        if (infomask & HEAP_XMAX_IS_MULTI)
        {
-           int     i;
-           int     nmembers;
+           int         i;
+           int         nmembers;
            MultiXactMember *members;
 
            /*
-            * We don't need to allow old multixacts here; if that had been the
-            * case, HeapTupleSatisfiesUpdate would have returned MayBeUpdated
-            * and we wouldn't be here.
+            * We don't need to allow old multixacts here; if that had been
+            * the case, HeapTupleSatisfiesUpdate would have returned
+            * MayBeUpdated and we wouldn't be here.
             */
            nmembers = GetMultiXactIdMembers(xwait, &members, false);
 
@@ -3967,7 +3969,7 @@ l3:
            {
                if (TransactionIdIsCurrentTransactionId(members[i].xid))
                {
-                   LockTupleMode   membermode;
+                   LockTupleMode membermode;
 
                    membermode = TUPLOCK_from_mxstatus(members[i].status);
 
@@ -4001,8 +4003,8 @@ l3:
                if (!ConditionalLockTupleTuplock(relation, tid, mode))
                    ereport(ERROR,
                            (errcode(ERRCODE_LOCK_NOT_AVAILABLE),
-                            errmsg("could not obtain lock on row in relation \"%s\"",
-                                   RelationGetRelationName(relation))));
+                   errmsg("could not obtain lock on row in relation \"%s\"",
+                          RelationGetRelationName(relation))));
            }
            else
                LockTupleTuplock(relation, tid, mode);
@@ -4023,34 +4025,34 @@ l3:
             * continue if the key hasn't been modified.
             *
             * However, if there are updates, we need to walk the update chain
-            * to mark future versions of the row as locked, too.  That way, if
-            * somebody deletes that future version, we're protected against
-            * the key going away.  This locking of future versions could block
-            * momentarily, if a concurrent transaction is deleting a key; or
-            * it could return a value to the effect that the transaction
-            * deleting the key has already committed.  So we do this before
-            * re-locking the buffer; otherwise this would be prone to
-            * deadlocks.
+            * to mark future versions of the row as locked, too.  That way,
+            * if somebody deletes that future version, we're protected
+            * against the key going away.  This locking of future versions
+            * could block momentarily, if a concurrent transaction is
+            * deleting a key; or it could return a value to the effect that
+            * the transaction deleting the key has already committed.  So we
+            * do this before re-locking the buffer; otherwise this would be
+            * prone to deadlocks.
             *
             * Note that the TID we're locking was grabbed before we unlocked
-            * the buffer.  For it to change while we're not looking, the other
-            * properties we're testing for below after re-locking the buffer
-            * would also change, in which case we would restart this loop
-            * above.
+            * the buffer.  For it to change while we're not looking, the
+            * other properties we're testing for below after re-locking the
+            * buffer would also change, in which case we would restart this
+            * loop above.
             */
            if (!(infomask2 & HEAP_KEYS_UPDATED))
            {
-               bool    updated;
+               bool        updated;
 
                updated = !HEAP_XMAX_IS_LOCKED_ONLY(infomask);
 
                /*
-                * If there are updates, follow the update chain; bail out
-                * if that cannot be done.
+                * If there are updates, follow the update chain; bail out if
+                * that cannot be done.
                 */
                if (follow_updates && updated)
                {
-                   HTSU_Result     res;
+                   HTSU_Result res;
 
                    res = heap_lock_updated_tuple(relation, tuple, &t_ctid,
                                                  GetCurrentTransactionId(),
@@ -4069,8 +4071,9 @@ l3:
                /*
                 * Make sure it's still an appropriate lock, else start over.
                 * Also, if it wasn't updated before we released the lock, but
-                * is updated now, we start over too; the reason is that we now
-                * need to follow the update chain to lock the new versions.
+                * is updated now, we start over too; the reason is that we
+                * now need to follow the update chain to lock the new
+                * versions.
                 */
                if (!HeapTupleHeaderIsOnlyLocked(tuple->t_data) &&
                    ((tuple->t_data->t_infomask2 & HEAP_KEYS_UPDATED) ||
@@ -4114,20 +4117,20 @@ l3:
        {
            /*
             * If we're requesting NoKeyExclusive, we might also be able to
-            * avoid sleeping; just ensure that there's no other lock type than
-            * KeyShare.  Note that this is a bit more involved than just
+            * avoid sleeping; just ensure that there's no other lock type
+            * than KeyShare.  Note that this is a bit more involved than just
             * checking hint bits -- we need to expand the multixact to figure
             * out lock modes for each one (unless there was only one such
             * locker).
             */
            if (infomask & HEAP_XMAX_IS_MULTI)
            {
-               int     nmembers;
+               int         nmembers;
                MultiXactMember *members;
 
                /*
-                * We don't need to allow old multixacts here; if that had been
-                * the case, HeapTupleSatisfiesUpdate would have returned
+                * We don't need to allow old multixacts here; if that had
+                * been the case, HeapTupleSatisfiesUpdate would have returned
                 * MayBeUpdated and we wouldn't be here.
                 */
                nmembers = GetMultiXactIdMembers(xwait, &members, false);
@@ -4135,15 +4138,15 @@ l3:
                if (nmembers <= 0)
                {
                    /*
-                    * No need to keep the previous xmax here. This is unlikely
-                    * to happen.
+                    * No need to keep the previous xmax here. This is
+                    * unlikely to happen.
                     */
                    require_sleep = false;
                }
                else
                {
-                   int     i;
-                   bool    allowed = true;
+                   int         i;
+                   bool        allowed = true;
 
                    for (i = 0; i < nmembers; i++)
                    {
@@ -4180,8 +4183,8 @@ l3:
 
                /* if the xmax changed in the meantime, start over */
                if ((tuple->t_data->t_infomask & HEAP_XMAX_IS_MULTI) ||
-                   !TransactionIdEquals(HeapTupleHeaderGetRawXmax(tuple->t_data),
-                                        xwait))
+               !TransactionIdEquals(HeapTupleHeaderGetRawXmax(tuple->t_data),
+                                    xwait))
                    goto l3;
                /* otherwise, we're good */
                require_sleep = false;
@@ -4221,7 +4224,7 @@ l3:
                if (follow_updates &&
                    !HEAP_XMAX_IS_LOCKED_ONLY(infomask))
                {
-                   HTSU_Result     res;
+                   HTSU_Result res;
 
                    res = heap_lock_updated_tuple(relation, tuple, &t_ctid,
                                                  GetCurrentTransactionId(),
@@ -4243,15 +4246,15 @@ l3:
                 * for xmax change, and start over if so.
                 */
                if (!(tuple->t_data->t_infomask & HEAP_XMAX_IS_MULTI) ||
-                   !TransactionIdEquals(HeapTupleHeaderGetRawXmax(tuple->t_data),
-                                        xwait))
+               !TransactionIdEquals(HeapTupleHeaderGetRawXmax(tuple->t_data),
+                                    xwait))
                    goto l3;
 
                /*
                 * Of course, the multixact might not be done here: if we're
                 * requesting a light lock mode, other transactions with light
                 * locks could still be alive, as well as locks owned by our
-                * own xact or other subxacts of this backend.  We need to
+                * own xact or other subxacts of this backend.  We need to
                 * preserve the surviving MultiXact members.  Note that it
                 * isn't absolutely necessary in the latter case, but doing so
                 * is simpler.
@@ -4275,7 +4278,7 @@ l3:
                if (follow_updates &&
                    !HEAP_XMAX_IS_LOCKED_ONLY(infomask))
                {
-                   HTSU_Result     res;
+                   HTSU_Result res;
 
                    res = heap_lock_updated_tuple(relation, tuple, &t_ctid,
                                                  GetCurrentTransactionId(),
@@ -4294,15 +4297,15 @@ l3:
                /*
                 * xwait is done, but if xwait had just locked the tuple then
                 * some other xact could update this tuple before we get to
-                * this point.  Check for xmax change, and start over if so.
+                * this point.  Check for xmax change, and start over if so.
                 */
                if ((tuple->t_data->t_infomask & HEAP_XMAX_IS_MULTI) ||
-                   !TransactionIdEquals(HeapTupleHeaderGetRawXmax(tuple->t_data),
-                                        xwait))
+               !TransactionIdEquals(HeapTupleHeaderGetRawXmax(tuple->t_data),
+                                    xwait))
                    goto l3;
 
                /*
-                * Otherwise check if it committed or aborted.  Note we cannot
+                * Otherwise check if it committed or aborted.  Note we cannot
                 * be here if the tuple was only locked by somebody who didn't
                 * conflict with us; that should have been handled above.  So
                 * that transaction must necessarily be gone by now.
@@ -4355,8 +4358,8 @@ failed:
     * for cases where it is a plain TransactionId.
     *
     * Note in particular that this covers the case where we already hold
-    * exclusive lock on the tuple and the caller only wants key share or share
-    * lock. It would certainly not do to give up the exclusive lock.
+    * exclusive lock on the tuple and the caller only wants key share or
+    * share lock. It would certainly not do to give up the exclusive lock.
     */
    if (!(old_infomask & (HEAP_XMAX_INVALID |
                          HEAP_XMAX_COMMITTED |
@@ -4379,13 +4382,12 @@ failed:
    }
 
    /*
-    * If this is the first possibly-multixact-able operation in the
-    * current transaction, set my per-backend OldestMemberMXactId setting.
-    * We can be certain that the transaction will never become a member of
-    * any older MultiXactIds than that.  (We have to do this even if we
-    * end up just using our own TransactionId below, since some other
-    * backend could incorporate our XID into a MultiXact immediately
-    * afterwards.)
+    * If this is the first possibly-multixact-able operation in the current
+    * transaction, set my per-backend OldestMemberMXactId setting. We can be
+    * certain that the transaction will never become a member of any older
+    * MultiXactIds than that.  (We have to do this even if we end up just
+    * using our own TransactionId below, since some other backend could
+    * incorporate our XID into a MultiXact immediately afterwards.)
     */
    MultiXactIdSetOldestMember();
 
@@ -4419,11 +4421,11 @@ failed:
    HeapTupleHeaderSetXmax(tuple->t_data, xid);
 
    /*
-    * Make sure there is no forward chain link in t_ctid.  Note that in the
+    * Make sure there is no forward chain link in t_ctid.  Note that in the
     * cases where the tuple has been updated, we must not overwrite t_ctid,
     * because it was set by the updater.  Moreover, if the tuple has been
-    * updated, we need to follow the update chain to lock the new versions
-    * of the tuple as well.
+    * updated, we need to follow the update chain to lock the new versions of
+    * the tuple as well.
     */
    if (HEAP_XMAX_IS_LOCKED_ONLY(new_infomask))
        tuple->t_data->t_ctid = *tid;
@@ -4514,9 +4516,9 @@ compute_new_xmax_infomask(TransactionId xmax, uint16 old_infomask,
                          TransactionId *result_xmax, uint16 *result_infomask,
                          uint16 *result_infomask2)
 {
-   TransactionId   new_xmax;
-   uint16          new_infomask,
-                   new_infomask2;
+   TransactionId new_xmax;
+   uint16      new_infomask,
+               new_infomask2;
 
 l5:
    new_infomask = 0;
@@ -4562,11 +4564,11 @@ l5:
    }
    else if (old_infomask & HEAP_XMAX_IS_MULTI)
    {
-       MultiXactStatus     new_status;
+       MultiXactStatus new_status;
 
        /*
-        * Currently we don't allow XMAX_COMMITTED to be set for multis,
-        * so cross-check.
+        * Currently we don't allow XMAX_COMMITTED to be set for multis, so
+        * cross-check.
         */
        Assert(!(old_infomask & HEAP_XMAX_COMMITTED));
 
@@ -4587,10 +4589,11 @@ l5:
 
        /*
         * If the XMAX is already a MultiXactId, then we need to expand it to
-        * include add_to_xmax; but if all the members were lockers and are all
-        * gone, we can do away with the IS_MULTI bit and just set add_to_xmax
-        * as the only locker/updater.  If all lockers are gone and we have an
-        * updater that aborted, we can also do without a multi.
+        * include add_to_xmax; but if all the members were lockers and are
+        * all gone, we can do away with the IS_MULTI bit and just set
+        * add_to_xmax as the only locker/updater.  If all lockers are gone
+        * and we have an updater that aborted, we can also do without a
+        * multi.
         *
         * The cost of doing GetMultiXactIdMembers would be paid by
         * MultiXactIdExpand if we weren't to do this, so this check is not
@@ -4624,8 +4627,8 @@ l5:
         * It's a committed update, so we need to preserve him as updater of
         * the tuple.
         */
-       MultiXactStatus     status;
-       MultiXactStatus     new_status;
+       MultiXactStatus status;
+       MultiXactStatus new_status;
 
        if (old_infomask2 & HEAP_KEYS_UPDATED)
            status = MultiXactStatusUpdate;
@@ -4633,6 +4636,7 @@ l5:
            status = MultiXactStatusNoKeyUpdate;
 
        new_status = get_mxact_status_for_lock(mode, is_update);
+
        /*
         * since it's not running, it's obviously impossible for the old
         * updater to be identical to the current one, so we need not check
@@ -4648,8 +4652,8 @@ l5:
         * create a new MultiXactId that includes both the old locker or
         * updater and our own TransactionId.
         */
-       MultiXactStatus     status;
-       MultiXactStatus     new_status;
+       MultiXactStatus status;
+       MultiXactStatus new_status;
 
        if (HEAP_XMAX_IS_LOCKED_ONLY(old_infomask))
        {
@@ -4668,8 +4672,8 @@ l5:
            {
                /*
                 * LOCK_ONLY can be present alone only when a page has been
-                * upgraded by pg_upgrade.  But in that case,
-                * TransactionIdIsInProgress() should have returned false.  We
+                * upgraded by pg_upgrade.  But in that case,
+                * TransactionIdIsInProgress() should have returned false.  We
                 * assume it's no longer locked in this case.
                 */
                elog(WARNING, "LOCK_ONLY found for Xid in progress %u", xmax);
@@ -4696,8 +4700,8 @@ l5:
         */
        if (xmax == add_to_xmax)
        {
-           LockTupleMode   old_mode = TUPLOCK_from_mxstatus(status);
-           bool            old_isupd = ISUPDATE_from_mxstatus(status);
+           LockTupleMode old_mode = TUPLOCK_from_mxstatus(status);
+           bool        old_isupd = ISUPDATE_from_mxstatus(status);
 
            /*
             * We can do this if the new LockTupleMode is higher or equal than
@@ -4728,8 +4732,8 @@ l5:
         * It's a committed update, so we gotta preserve him as updater of the
         * tuple.
         */
-       MultiXactStatus     status;
-       MultiXactStatus     new_status;
+       MultiXactStatus status;
+       MultiXactStatus new_status;
 
        if (old_infomask2 & HEAP_KEYS_UPDATED)
            status = MultiXactStatusUpdate;
@@ -4737,6 +4741,7 @@ l5:
            status = MultiXactStatusNoKeyUpdate;
 
        new_status = get_mxact_status_for_lock(mode, is_update);
+
        /*
         * since it's not running, it's obviously impossible for the old
         * updater to be identical to the current one, so we need not check
@@ -4774,14 +4779,14 @@ static HTSU_Result
 heap_lock_updated_tuple_rec(Relation rel, ItemPointer tid, TransactionId xid,
                            LockTupleMode mode)
 {
-   ItemPointerData tupid;
-   HeapTupleData   mytup;
-   Buffer          buf;
-   uint16          new_infomask,
-                   new_infomask2,
-                   old_infomask;
-   TransactionId   xmax,
-                   new_xmax;
+   ItemPointerData tupid;
+   HeapTupleData mytup;
+   Buffer      buf;
+   uint16      new_infomask,
+               new_infomask2,
+               old_infomask;
+   TransactionId xmax,
+               new_xmax;
 
    ItemPointerCopy(tid, &tupid);
 
@@ -4802,16 +4807,17 @@ l4:
        xmax = HeapTupleHeaderGetRawXmax(mytup.t_data);
 
        /*
-        * If this tuple is updated and the key has been modified (or deleted),
-        * what we do depends on the status of the updating transaction: if
-        * it's live, we sleep until it finishes; if it has committed, we have
-        * to fail (i.e. return HeapTupleUpdated); if it aborted, we ignore it.
-        * For updates that didn't touch the key, we can just plough ahead.
+        * If this tuple is updated and the key has been modified (or
+        * deleted), what we do depends on the status of the updating
+        * transaction: if it's live, we sleep until it finishes; if it has
+        * committed, we have to fail (i.e. return HeapTupleUpdated); if it
+        * aborted, we ignore it. For updates that didn't touch the key, we
+        * can just plough ahead.
         */
        if (!(old_infomask & HEAP_XMAX_INVALID) &&
            (mytup.t_data->t_infomask2 & HEAP_KEYS_UPDATED))
        {
-           TransactionId   update_xid;
+           TransactionId update_xid;
 
            /*
             * Note: we *must* check TransactionIdIsInProgress before
@@ -4832,7 +4838,7 @@ l4:
                goto l4;
            }
            else if (TransactionIdDidAbort(update_xid))
-               ;   /* okay to proceed */
+               ;               /* okay to proceed */
            else if (TransactionIdDidCommit(update_xid))
            {
                UnlockReleaseBuffer(buf);
@@ -4861,7 +4867,7 @@ l4:
        {
            xl_heap_lock_updated xlrec;
            XLogRecPtr  recptr;
-           XLogRecData rdata[2];
+           XLogRecData rdata[2];
            Page        page = BufferGetPage(buf);
 
            xlrec.target.node = rel->rd_node;
@@ -4889,7 +4895,7 @@ l4:
 
        /* if we find the end of update chain, we're done. */
        if (mytup.t_data->t_infomask & HEAP_XMAX_INVALID ||
-           ItemPointerEquals(&mytup.t_self, &mytup.t_data->t_ctid)  ||
+           ItemPointerEquals(&mytup.t_self, &mytup.t_data->t_ctid) ||
            HeapTupleHeaderIsOnlyLocked(mytup.t_data))
        {
            UnlockReleaseBuffer(buf);
@@ -4904,13 +4910,13 @@ l4:
 
 /*
  * heap_lock_updated_tuple
- *         Follow update chain when locking an updated tuple, acquiring locks (row
- *         marks) on the updated versions.
+ *     Follow update chain when locking an updated tuple, acquiring locks (row
+ *     marks) on the updated versions.
  *
  * The initial tuple is assumed to be already locked.
  *
  * This function doesn't check visibility, it just inconditionally marks the
- * tuple(s) as locked.  If any tuple in the updated chain is being deleted
+ * tuple(s) as locked. If any tuple in the updated chain is being deleted
  * concurrently (or updated with the key being modified), sleep until the
  * transaction doing it is finished.
  *
@@ -4932,12 +4938,12 @@ heap_lock_updated_tuple(Relation rel, HeapTuple tuple, ItemPointer ctid,
    {
        /*
         * If this is the first possibly-multixact-able operation in the
-        * current transaction, set my per-backend OldestMemberMXactId setting.
-        * We can be certain that the transaction will never become a member of
-        * any older MultiXactIds than that.  (We have to do this even if we
-        * end up just using our own TransactionId below, since some other
-        * backend could incorporate our XID into a MultiXact immediately
-        * afterwards.)
+        * current transaction, set my per-backend OldestMemberMXactId
+        * setting. We can be certain that the transaction will never become a
+        * member of any older MultiXactIds than that.  (We have to do this
+        * even if we end up just using our own TransactionId below, since
+        * some other backend could incorporate our XID into a MultiXact
+        * immediately afterwards.)
         */
        MultiXactIdSetOldestMember();
 
@@ -5117,9 +5123,9 @@ heap_freeze_tuple(HeapTupleHeader tuple, TransactionId cutoff_xid,
        HeapTupleHeaderSetXmax(tuple, InvalidTransactionId);
 
        /*
-        * The tuple might be marked either XMAX_INVALID or XMAX_COMMITTED
-        * + LOCKED.  Normalize to INVALID just to be sure no one gets
-        * confused.  Also get rid of the HEAP_KEYS_UPDATED bit.
+        * The tuple might be marked either XMAX_INVALID or XMAX_COMMITTED +
+        * LOCKED.  Normalize to INVALID just to be sure no one gets confused.
+        * Also get rid of the HEAP_KEYS_UPDATED bit.
         */
        tuple->t_infomask &= ~HEAP_XMAX_BITS;
        tuple->t_infomask |= HEAP_XMAX_INVALID;
@@ -5172,13 +5178,13 @@ static void
 GetMultiXactIdHintBits(MultiXactId multi, uint16 *new_infomask,
                       uint16 *new_infomask2)
 {
-   int     nmembers;
-   MultiXactMember *members;
-   int     i;
-   uint16  bits = HEAP_XMAX_IS_MULTI;
-   uint16  bits2 = 0;
-   bool    has_update = false;
-   LockTupleMode   strongest = LockTupleKeyShare;
+   int         nmembers;
+   MultiXactMember *members;
+   int         i;
+   uint16      bits = HEAP_XMAX_IS_MULTI;
+   uint16      bits2 = 0;
+   bool        has_update = false;
+   LockTupleMode strongest = LockTupleKeyShare;
 
    /*
     * We only use this in multis we just created, so they cannot be values
@@ -5188,7 +5194,7 @@ GetMultiXactIdHintBits(MultiXactId multi, uint16 *new_infomask,
 
    for (i = 0; i < nmembers; i++)
    {
-       LockTupleMode   mode;
+       LockTupleMode mode;
 
        /*
         * Remember the strongest lock mode held by any member of the
@@ -5249,22 +5255,22 @@ GetMultiXactIdHintBits(MultiXactId multi, uint16 *new_infomask,
 static TransactionId
 MultiXactIdGetUpdateXid(TransactionId xmax, uint16 t_infomask)
 {
-   TransactionId   update_xact = InvalidTransactionId;
-   MultiXactMember *members;
-   int             nmembers;
+   TransactionId update_xact = InvalidTransactionId;
+   MultiXactMember *members;
+   int         nmembers;
 
    Assert(!(t_infomask & HEAP_XMAX_LOCK_ONLY));
    Assert(t_infomask & HEAP_XMAX_IS_MULTI);
 
    /*
-    * Since we know the LOCK_ONLY bit is not set, this cannot be a
-    * multi from pre-pg_upgrade.
+    * Since we know the LOCK_ONLY bit is not set, this cannot be a multi from
+    * pre-pg_upgrade.
     */
    nmembers = GetMultiXactIdMembers(xmax, &members, false);
 
    if (nmembers > 0)
    {
-       int     i;
+       int         i;
 
        for (i = 0; i < nmembers; i++)
        {
@@ -5284,6 +5290,7 @@ MultiXactIdGetUpdateXid(TransactionId xmax, uint16 t_infomask)
                   members[i].status == MultiXactStatusUpdate);
            update_xact = members[i].xid;
 #ifndef USE_ASSERT_CHECKING
+
            /*
             * in an assert-enabled build, walk the whole array to ensure
             * there's no other updater.
@@ -5300,7 +5307,7 @@ MultiXactIdGetUpdateXid(TransactionId xmax, uint16 t_infomask)
 
 /*
  * HeapTupleGetUpdateXid
- *         As above, but use a HeapTupleHeader
+ *     As above, but use a HeapTupleHeader
  *
  * See also HeapTupleHeaderGetUpdateXid, which can be used without previously
  * checking the hint bits.
@@ -5314,7 +5321,7 @@ HeapTupleGetUpdateXid(HeapTupleHeader tuple)
 
 /*
  * Do_MultiXactIdWait
- *         Actual implementation for the two functions below.
+ *     Actual implementation for the two functions below.
  *
  * We do this by sleeping on each member using XactLockTableWait.  Any
  * members that belong to the current backend are *not* waited for, however;
@@ -5432,7 +5439,7 @@ ConditionalMultiXactIdWait(MultiXactId multi, MultiXactStatus status,
  * heap_tuple_needs_freeze
  *
  * Check to see whether any of the XID fields of a tuple (xmin, xmax, xvac)
- * are older than the specified cutoff XID or MultiXactId.  If so, return TRUE.
+ * are older than the specified cutoff XID or MultiXactId. If so, return TRUE.
  *
  * It doesn't matter whether the tuple is alive or dead, we are checking
  * to see if a tuple needs to be removed or frozen to avoid wraparound.
@@ -6091,7 +6098,7 @@ heap_xlog_freeze(XLogRecPtr lsn, XLogRecord *record)
 {
    xl_heap_freeze *xlrec = (xl_heap_freeze *) XLogRecGetData(record);
    TransactionId cutoff_xid = xlrec->cutoff_xid;
-   MultiXactId cutoff_multi = xlrec->cutoff_multi;
+   MultiXactId cutoff_multi = xlrec->cutoff_multi;
    Buffer      buffer;
    Page        page;
 
@@ -6361,7 +6368,7 @@ heap_xlog_delete(XLogRecPtr lsn, XLogRecord *record)
        return;
    page = (Page) BufferGetPage(buffer);
 
-   if (lsn <= PageGetLSN(page))        /* changes are applied */
+   if (lsn <= PageGetLSN(page))    /* changes are applied */
    {
        UnlockReleaseBuffer(buffer);
        return;
@@ -6729,7 +6736,7 @@ heap_xlog_update(XLogRecPtr lsn, XLogRecord *record, bool hot_update)
        goto newt;
    page = (Page) BufferGetPage(obuffer);
 
-   if (lsn <= PageGetLSN(page))        /* changes are applied */
+   if (lsn <= PageGetLSN(page))    /* changes are applied */
    {
        if (samepage)
        {
@@ -6931,7 +6938,7 @@ heap_xlog_lock(XLogRecPtr lsn, XLogRecord *record)
        return;
    page = (Page) BufferGetPage(buffer);
 
-   if (lsn <= PageGetLSN(page))        /* changes are applied */
+   if (lsn <= PageGetLSN(page))    /* changes are applied */
    {
        UnlockReleaseBuffer(buffer);
        return;
@@ -6962,7 +6969,7 @@ static void
 heap_xlog_lock_updated(XLogRecPtr lsn, XLogRecord *record)
 {
    xl_heap_lock_updated *xlrec =
-       (xl_heap_lock_updated *) XLogRecGetData(record);
+   (xl_heap_lock_updated *) XLogRecGetData(record);
    Buffer      buffer;
    Page        page;
    OffsetNumber offnum;
@@ -6983,7 +6990,7 @@ heap_xlog_lock_updated(XLogRecPtr lsn, XLogRecord *record)
        return;
    page = (Page) BufferGetPage(buffer);
 
-   if (lsn <= PageGetLSN(page))        /* changes are applied */
+   if (lsn <= PageGetLSN(page))    /* changes are applied */
    {
        UnlockReleaseBuffer(buffer);
        return;
@@ -7033,7 +7040,7 @@ heap_xlog_inplace(XLogRecPtr lsn, XLogRecord *record)
        return;
    page = (Page) BufferGetPage(buffer);
 
-   if (lsn <= PageGetLSN(page))        /* changes are applied */
+   if (lsn <= PageGetLSN(page))    /* changes are applied */
    {
        UnlockReleaseBuffer(buffer);
        return;
index a3aad3adf915a9a28a53a694998f0e1e90ffbd53..7105f0ab651af1b6ed7722cce70257d9a9a2b5a9 100644 (file)
@@ -129,7 +129,7 @@ typedef struct RewriteStateData
                                         * determine tuple visibility */
    TransactionId rs_freeze_xid;/* Xid that will be used as freeze cutoff
                                 * point */
-   MultiXactId rs_freeze_multi;/* MultiXactId that will be used as freeze
+   MultiXactId rs_freeze_multi;/* MultiXactId that will be used as freeze
                                 * cutoff point for multixacts */
    MemoryContext rs_cxt;       /* for hash tables and entries and tuples in
                                 * them */
index af64fe97e89f92068d0bdd145a0120de332e4d5f..ffec6cbcc0c3a90400836c76c60b057913b30a48 100644 (file)
@@ -292,7 +292,7 @@ visibilitymap_set(Relation rel, BlockNumber heapBlk, Buffer heapBuf,
                 */
                if (DataChecksumsEnabled())
                {
-                   Page heapPage = BufferGetPage(heapBuf);
+                   Page        heapPage = BufferGetPage(heapBuf);
 
                    /* caller is expected to set PD_ALL_VISIBLE first */
                    Assert(PageIsAllVisible(heapPage));
index 1d9cb7d1a0655868247fd706a67ec2e5fa967d31..f4077533bf5fc2ebd3e05b0d07e35830afbc3a35 100644 (file)
@@ -532,8 +532,8 @@ _bt_log_reuse_page(Relation rel, BlockNumber blkno, TransactionId latestRemovedX
    START_CRIT_SECTION();
 
    /*
-    * We don't do MarkBufferDirty here because we're about to initialise
-    * the page, and nobody else can see it yet.
+    * We don't do MarkBufferDirty here because we're about to initialise the
+    * page, and nobody else can see it yet.
     */
 
    /* XLOG stuff */
@@ -552,8 +552,8 @@ _bt_log_reuse_page(Relation rel, BlockNumber blkno, TransactionId latestRemovedX
        XLogInsert(RM_BTREE_ID, XLOG_BTREE_REUSE_PAGE, rdata);
 
        /*
-        * We don't do PageSetLSN here because we're about to initialise
-        * the page, so no need.
+        * We don't do PageSetLSN here because we're about to initialise the
+        * page, so no need.
         */
    }
 
index 4aabdba3d9e2d2143de0b3effbb657661339a529..cb5867ee3e6aeb5850dc1e799d6f70c49cb3eb58 100644 (file)
@@ -373,7 +373,7 @@ btree_xlog_split(bool onleft, bool isroot,
             * Note that this code ensures that the items remaining on the
             * left page are in the correct item number order, but it does not
             * reproduce the physical order they would have had.  Is this
-            * worth changing?  See also _bt_restore_page().
+            * worth changing?  See also _bt_restore_page().
             */
            Page        lpage = (Page) BufferGetPage(lbuf);
            BTPageOpaque lopaque = (BTPageOpaque) PageGetSpecialPointer(lpage);
@@ -606,18 +606,18 @@ btree_xlog_delete_get_latestRemovedXid(xl_btree_delete *xlrec)
 
    /*
     * In what follows, we have to examine the previous state of the index
-    * page, as well as the heap page(s) it points to.  This is only valid if
+    * page, as well as the heap page(s) it points to.  This is only valid if
     * WAL replay has reached a consistent database state; which means that
-    * the preceding check is not just an optimization, but is *necessary*.
-    * We won't have let in any user sessions before we reach consistency.
+    * the preceding check is not just an optimization, but is *necessary*. We
+    * won't have let in any user sessions before we reach consistency.
     */
    if (!reachedConsistency)
        elog(PANIC, "btree_xlog_delete_get_latestRemovedXid: cannot operate with inconsistent data");
 
    /*
-    * Get index page.  If the DB is consistent, this should not fail, nor
+    * Get index page.  If the DB is consistent, this should not fail, nor
     * should any of the heap page fetches below.  If one does, we return
-    * InvalidTransactionId to cancel all HS transactions.  That's probably
+    * InvalidTransactionId to cancel all HS transactions.  That's probably
     * overkill, but it's safe, and certainly better than panicking here.
     */
    ibuffer = XLogReadBuffer(xlrec->node, xlrec->block, false);
@@ -701,10 +701,10 @@ btree_xlog_delete_get_latestRemovedXid(xl_btree_delete *xlrec)
 
    /*
     * XXX If all heap tuples were LP_DEAD then we will be returning
-    * InvalidTransactionId here, causing conflict for all HS
-    * transactions. That should happen very rarely (reasoning please?). Also
-    * note that caller can't tell the difference between this case and the
-    * fast path exit above. May need to change that in future.
+    * InvalidTransactionId here, causing conflict for all HS transactions.
+    * That should happen very rarely (reasoning please?). Also note that
+    * caller can't tell the difference between this case and the fast path
+    * exit above. May need to change that in future.
     */
    return latestRemovedXid;
 }
@@ -721,7 +721,7 @@ btree_xlog_delete(XLogRecPtr lsn, XLogRecord *record)
     * If we have any conflict processing to do, it must happen before we
     * update the page.
     *
-    * Btree delete records can conflict with standby queries.  You might
+    * Btree delete records can conflict with standby queries.  You might
     * think that vacuum records would conflict as well, but we've handled
     * that already.  XLOG_HEAP2_CLEANUP_INFO records provide the highest xid
     * cleaned by the vacuum of the heap and so we can resolve any conflicts
index 92be7130382aa3ff87cfb4a4ed5a5577f792a141..2655f083bdc1ee8674adace84ad6e6664210cb7e 100644 (file)
@@ -1,14 +1,14 @@
 /*-------------------------------------------------------------------------
  *
  * clogdesc.c
- *    rmgr descriptor routines for access/transam/clog.c
+ *   rmgr descriptor routines for access/transam/clog.c
  *
  * Portions Copyright (c) 1996-2013, PostgreSQL Global Development Group
  * Portions Copyright (c) 1994, Regents of the University of California
  *
  *
  * IDENTIFICATION
- *    src/backend/access/rmgrdesc/clogdesc.c
+ *   src/backend/access/rmgrdesc/clogdesc.c
  *
  *-------------------------------------------------------------------------
  */
index 55d435248f355e7178c6a0dafbe04232148042e2..2354c5a5d839998baf0319faa907025f0b7559ac 100644 (file)
@@ -1,14 +1,14 @@
 /*-------------------------------------------------------------------------
  *
  * dbasedesc.c
- *    rmgr descriptor routines for commands/dbcommands.c
+ *   rmgr descriptor routines for commands/dbcommands.c
  *
  * Portions Copyright (c) 1996-2013, PostgreSQL Global Development Group
  * Portions Copyright (c) 1994, Regents of the University of California
  *
  *
  * IDENTIFICATION
- *    src/backend/access/rmgrdesc/dbasedesc.c
+ *   src/backend/access/rmgrdesc/dbasedesc.c
  *
  *-------------------------------------------------------------------------
  */
index 53bc482ec21e80236f33fc5270297ba46c8aff8f..5400c8628fcea8eea2d69b73e4814c06f9f88476 100644 (file)
@@ -1,14 +1,14 @@
 /*-------------------------------------------------------------------------
  *
  * gindesc.c
- *    rmgr descriptor routines for access/transam/gin/ginxlog.c
+ *   rmgr descriptor routines for access/transam/gin/ginxlog.c
  *
  * Portions Copyright (c) 1996-2013, PostgreSQL Global Development Group
  * Portions Copyright (c) 1994, Regents of the University of California
  *
  *
  * IDENTIFICATION
- *    src/backend/access/rmgrdesc/gindesc.c
+ *   src/backend/access/rmgrdesc/gindesc.c
  *
  *-------------------------------------------------------------------------
  */
index da81595fd41933ce9ce0e7a2a302322d36ff5b18..c58c8a261adb02a6b84dbb0540cf3a5c80c6e817 100644 (file)
@@ -1,14 +1,14 @@
 /*-------------------------------------------------------------------------
  *
  * gistdesc.c
- *    rmgr descriptor routines for access/gist/gistxlog.c
+ *   rmgr descriptor routines for access/gist/gistxlog.c
  *
  * Portions Copyright (c) 1996-2013, PostgreSQL Global Development Group
  * Portions Copyright (c) 1994, Regents of the University of California
  *
  *
  * IDENTIFICATION
- *    src/backend/access/rmgrdesc/gistdesc.c
+ *   src/backend/access/rmgrdesc/gistdesc.c
  *
  *-------------------------------------------------------------------------
  */
index a50008478e2200d4a57ffe52b62a99996feccd1f..6d4a278adc2ae77ee636371fc45aab140a187d5c 100644 (file)
@@ -1,14 +1,14 @@
 /*-------------------------------------------------------------------------
  *
  * hashdesc.c
- *    rmgr descriptor routines for access/hash/hash.c
+ *   rmgr descriptor routines for access/hash/hash.c
  *
  * Portions Copyright (c) 1996-2013, PostgreSQL Global Development Group
  * Portions Copyright (c) 1994, Regents of the University of California
  *
  *
  * IDENTIFICATION
- *    src/backend/access/rmgrdesc/hashdesc.c
+ *   src/backend/access/rmgrdesc/hashdesc.c
  *
  *-------------------------------------------------------------------------
  */
index 272208417a33c0bac4825eb5f1520d5e834fe6a0..bc8b98528d6f1bee397f70c7ef3c172517e768fb 100644 (file)
@@ -1,14 +1,14 @@
 /*-------------------------------------------------------------------------
  *
  * heapdesc.c
- *    rmgr descriptor routines for access/heap/heapam.c
+ *   rmgr descriptor routines for access/heap/heapam.c
  *
  * Portions Copyright (c) 1996-2013, PostgreSQL Global Development Group
  * Portions Copyright (c) 1994, Regents of the University of California
  *
  *
  * IDENTIFICATION
- *    src/backend/access/rmgrdesc/heapdesc.c
+ *   src/backend/access/rmgrdesc/heapdesc.c
  *
  *-------------------------------------------------------------------------
  */
index 3e6cba062d3ed35abf1a3a41880ad6a675170598..b2466a1e2b63e55ceae0afe8bf6232e0765708b4 100644 (file)
@@ -1,14 +1,14 @@
 /*-------------------------------------------------------------------------
  *
  * mxactdesc.c
- *    rmgr descriptor routines for access/transam/multixact.c
+ *   rmgr descriptor routines for access/transam/multixact.c
  *
  * Portions Copyright (c) 1996-2013, PostgreSQL Global Development Group
  * Portions Copyright (c) 1994, Regents of the University of California
  *
  *
  * IDENTIFICATION
- *    src/backend/access/rmgrdesc/mxactdesc.c
+ *   src/backend/access/rmgrdesc/mxactdesc.c
  *
  *-------------------------------------------------------------------------
  */
index 400e11b050653b0c1c5e6469f85c87bcb2950a8b..b8f0d69df0c64b15fafeb14746b102f67fb08163 100644 (file)
@@ -1,14 +1,14 @@
 /*-------------------------------------------------------------------------
  *
  * nbtdesc.c
- *    rmgr descriptor routines for access/nbtree/nbtxlog.c
+ *   rmgr descriptor routines for access/nbtree/nbtxlog.c
  *
  * Portions Copyright (c) 1996-2013, PostgreSQL Global Development Group
  * Portions Copyright (c) 1994, Regents of the University of California
  *
  *
  * IDENTIFICATION
- *    src/backend/access/rmgrdesc/nbtdesc.c
+ *   src/backend/access/rmgrdesc/nbtdesc.c
  *
  *-------------------------------------------------------------------------
  */
index 4c731c9b56879afea52141851fc4be02cc362197..d3fe2674356ee23e5dbf4fff8fd5a0e77d749fe5 100644 (file)
@@ -1,14 +1,14 @@
 /*-------------------------------------------------------------------------
  *
  * relmapdesc.c
- *    rmgr descriptor routines for utils/cache/relmapper.c
+ *   rmgr descriptor routines for utils/cache/relmapper.c
  *
  * Portions Copyright (c) 1996-2013, PostgreSQL Global Development Group
  * Portions Copyright (c) 1994, Regents of the University of California
  *
  *
  * IDENTIFICATION
- *    src/backend/access/rmgrdesc/relmapdesc.c
+ *   src/backend/access/rmgrdesc/relmapdesc.c
  *
  *-------------------------------------------------------------------------
  */
index 4d6a16adae1886314c0bdef4dc734435683e6000..90400e201a9e667cf87ca943144d5f729a71463e 100644 (file)
@@ -1,14 +1,14 @@
 /*-------------------------------------------------------------------------
  *
  * seqdesc.c
- *    rmgr descriptor routines for commands/sequence.c
+ *   rmgr descriptor routines for commands/sequence.c
  *
  * Portions Copyright (c) 1996-2013, PostgreSQL Global Development Group
  * Portions Copyright (c) 1994, Regents of the University of California
  *
  *
  * IDENTIFICATION
- *    src/backend/access/rmgrdesc/seqdesc.c
+ *   src/backend/access/rmgrdesc/seqdesc.c
  *
  *-------------------------------------------------------------------------
  */
index 176d8142a60a205d15fbba666fc1d4fec32b199e..355153c613efbf02349fce7e36cdb049bf84062e 100644 (file)
@@ -1,14 +1,14 @@
 /*-------------------------------------------------------------------------
  *
  * smgrdesc.c
- *    rmgr descriptor routines for catalog/storage.c
+ *   rmgr descriptor routines for catalog/storage.c
  *
  * Portions Copyright (c) 1996-2013, PostgreSQL Global Development Group
  * Portions Copyright (c) 1994, Regents of the University of California
  *
  *
  * IDENTIFICATION
- *    src/backend/access/rmgrdesc/smgrdesc.c
+ *   src/backend/access/rmgrdesc/smgrdesc.c
  *
  *-------------------------------------------------------------------------
  */
index aca22600d42df7eff348e28160086f775f84efb0..fa71a4d637af3ec40f3d13602e58b2ccdbca2ba5 100644 (file)
@@ -1,14 +1,14 @@
 /*-------------------------------------------------------------------------
  *
  * spgdesc.c
- *    rmgr descriptor routines for access/spgist/spgxlog.c
+ *   rmgr descriptor routines for access/spgist/spgxlog.c
  *
  * Portions Copyright (c) 1996-2013, PostgreSQL Global Development Group
  * Portions Copyright (c) 1994, Regents of the University of California
  *
  *
  * IDENTIFICATION
- *    src/backend/access/rmgrdesc/spgdesc.c
+ *   src/backend/access/rmgrdesc/spgdesc.c
  *
  *-------------------------------------------------------------------------
  */
index 5fb6f54b3b6b8145743554d3717fdcfe391916a8..8e0c37d2f51f0738bd959d24589beb611b07a310 100644 (file)
@@ -1,14 +1,14 @@
 /*-------------------------------------------------------------------------
  *
  * standbydesc.c
- *    rmgr descriptor routines for storage/ipc/standby.c
+ *   rmgr descriptor routines for storage/ipc/standby.c
  *
  * Portions Copyright (c) 1996-2013, PostgreSQL Global Development Group
  * Portions Copyright (c) 1994, Regents of the University of California
  *
  *
  * IDENTIFICATION
- *    src/backend/access/rmgrdesc/standbydesc.c
+ *   src/backend/access/rmgrdesc/standbydesc.c
  *
  *-------------------------------------------------------------------------
  */
index c2c88cd69372cb8dac9bc7928f4df5abc8c38e06..76f7ca71f240f7c4c5646a4c5335d94cfeea7899 100644 (file)
@@ -1,14 +1,14 @@
 /*-------------------------------------------------------------------------
  *
  * tblspcdesc.c
- *    rmgr descriptor routines for commands/tablespace.c
+ *   rmgr descriptor routines for commands/tablespace.c
  *
  * Portions Copyright (c) 1996-2013, PostgreSQL Global Development Group
  * Portions Copyright (c) 1994, Regents of the University of California
  *
  *
  * IDENTIFICATION
- *    src/backend/access/rmgrdesc/tblspcdesc.c
+ *   src/backend/access/rmgrdesc/tblspcdesc.c
  *
  *-------------------------------------------------------------------------
  */
index 11c6912753a89bd9eefc78fcd93d302d83f44b8c..c9c7b4a20826a8fbec0116f0d318a48a9f11079a 100644 (file)
@@ -1,14 +1,14 @@
 /*-------------------------------------------------------------------------
  *
  * xactdesc.c
- *    rmgr descriptor routines for access/transam/xact.c
+ *   rmgr descriptor routines for access/transam/xact.c
  *
  * Portions Copyright (c) 1996-2013, PostgreSQL Global Development Group
  * Portions Copyright (c) 1994, Regents of the University of California
  *
  *
  * IDENTIFICATION
- *    src/backend/access/rmgrdesc/xactdesc.c
+ *   src/backend/access/rmgrdesc/xactdesc.c
  *
  *-------------------------------------------------------------------------
  */
index 4c68b6ae0a39095939c0359316e7d44aa916a1dd..2bad52748a35608e015cf48dcca58a262d521509 100644 (file)
@@ -1,14 +1,14 @@
 /*-------------------------------------------------------------------------
  *
  * xlogdesc.c
- *    rmgr descriptor routines for access/transam/xlog.c
+ *   rmgr descriptor routines for access/transam/xlog.c
  *
  * Portions Copyright (c) 1996-2013, PostgreSQL Global Development Group
  * Portions Copyright (c) 1994, Regents of the University of California
  *
  *
  * IDENTIFICATION
- *    src/backend/access/rmgrdesc/xlogdesc.c
+ *   src/backend/access/rmgrdesc/xlogdesc.c
  *
  *-------------------------------------------------------------------------
  */
@@ -45,7 +45,7 @@ xlog_desc(StringInfo buf, uint8 xl_info, char *rec)
                         "tli %u; prev tli %u; fpw %s; xid %u/%u; oid %u; multi %u; offset %u; "
                         "oldest xid %u in DB %u; oldest multi %u in DB %u; "
                         "oldest running xid %u; %s",
-                        (uint32) (checkpoint->redo >> 32), (uint32) checkpoint->redo,
+               (uint32) (checkpoint->redo >> 32), (uint32) checkpoint->redo,
                         checkpoint->ThisTimeLineID,
                         checkpoint->PrevTimeLineID,
                         checkpoint->fullPageWrites ? "true" : "false",
@@ -84,7 +84,8 @@ xlog_desc(StringInfo buf, uint8 xl_info, char *rec)
    }
    else if (info == XLOG_HINT)
    {
-       BkpBlock *bkp = (BkpBlock *) rec;
+       BkpBlock   *bkp = (BkpBlock *) rec;
+
        appendStringInfo(buf, "page hint: %s block %u",
                         relpathperm(bkp->node, bkp->fork),
                         bkp->block);
index 8d50dcc6183d3bd47401bef6f643e7340bc4e671..e430d9c1aceeb98ac6e9585b3ae3b746db28e066 100644 (file)
@@ -30,7 +30,7 @@
  * imposed by page headers, tuple headers, etc, we leave 100 bytes for that
  * (the actual overhead should be no more than 56 bytes at this writing, so
  * there is slop in this number).  So we can safely create prefixes up to
- * BLCKSZ - 256 * 16 - 100 bytes long.  Unfortunately, because 256 * 16 is
+ * BLCKSZ - 256 * 16 - 100 bytes long. Unfortunately, because 256 * 16 is
  * already 4K, there is no safe prefix length when BLCKSZ is less than 8K;
  * it is always possible to get "SPGiST inner tuple size exceeds maximum"
  * if there are too many distinct next-byte values at a given place in the
index 69e8546399638897910bd82ecb3d85ad6ae5e4a5..a74678d967f62eec8fd1a2f49a14f076ed7861d1 100644 (file)
@@ -5,7 +5,7 @@
  *
  * The pg_multixact manager is a pg_clog-like manager that stores an array of
  * MultiXactMember for each MultiXactId.  It is a fundamental part of the
- * shared-row-lock implementation.  Each MultiXactMember is comprised of a
+ * shared-row-lock implementation. Each MultiXactMember is comprised of a
  * TransactionId and a set of flag bits.  The name is a bit historical:
  * originally, a MultiXactId consisted of more than one TransactionId (except
  * in rare corner cases), hence "multi".  Nowadays, however, it's perfectly
@@ -50,7 +50,7 @@
  * The minimum value in each database is stored in pg_database, and the
  * global minimum is part of pg_control.  Any vacuum that is able to
  * advance its database's minimum value also computes a new global minimum,
- * and uses this value to truncate older segments.  When new multixactid
+ * and uses this value to truncate older segments. When new multixactid
  * values are to be created, care is taken that the counter does not
  * fall within the wraparound horizon considering the global minimum value.
  *
  * additional flag bits for each TransactionId.  To do this without getting
  * into alignment issues, we store four bytes of flags, and then the
  * corresponding 4 Xids.  Each such 5-word (20-byte) set we call a "group", and
- * are stored as a whole in pages.  Thus, with 8kB BLCKSZ, we keep 409 groups
+ * are stored as a whole in pages. Thus, with 8kB BLCKSZ, we keep 409 groups
  * per page.  This wastes 12 bytes per page, but that's OK -- simplicity (and
  * performance) trumps space efficiency here.
  *
@@ -177,17 +177,17 @@ typedef struct MultiXactStateData
    MultiXactId lastTruncationPoint;
 
    /*
-    * oldest multixact that is still on disk.  Anything older than this should
-    * not be consulted.
+    * oldest multixact that is still on disk.  Anything older than this
+    * should not be consulted.
     */
-   MultiXactId     oldestMultiXactId;
-   Oid             oldestMultiXactDB;
+   MultiXactId oldestMultiXactId;
+   Oid         oldestMultiXactDB;
 
    /* support for anti-wraparound measures */
-   MultiXactId     multiVacLimit;
-   MultiXactId     multiWarnLimit;
-   MultiXactId     multiStopLimit;
-   MultiXactId     multiWrapLimit;
+   MultiXactId multiVacLimit;
+   MultiXactId multiWarnLimit;
+   MultiXactId multiStopLimit;
+   MultiXactId multiWrapLimit;
 
    /*
     * Per-backend data starts here.  We have two arrays stored in the area
@@ -252,7 +252,7 @@ static MultiXactId *OldestVisibleMXactId;
  * so they will be uninteresting by the time our next transaction starts.
  * (XXX not clear that this is correct --- other members of the MultiXact
  * could hang around longer than we did.  However, it's not clear what a
- * better policy for flushing old cache entries would be.)  FIXME actually
+ * better policy for flushing old cache entries would be.) FIXME actually
  * this is plain wrong now that multixact's may contain update Xids.
  *
  * We allocate the cache entries in a memory context that is deleted at
@@ -291,7 +291,7 @@ static void RecordNewMultiXact(MultiXactId multi, MultiXactOffset offset,
 static MultiXactId GetNewMultiXactId(int nmembers, MultiXactOffset *offset);
 
 /* MultiXact cache management */
-static int mxactMemberComparator(const void *arg1, const void *arg2);
+static int mxactMemberComparator(const void *arg1, const void *arg2);
 static MultiXactId mXactCacheGetBySet(int nmembers, MultiXactMember *members);
 static int mXactCacheGetById(MultiXactId multi, MultiXactMember **members);
 static void mXactCachePut(MultiXactId multi, int nmembers,
@@ -387,15 +387,15 @@ MultiXactIdExpand(MultiXactId multi, TransactionId xid, MultiXactStatus status)
                multi, xid, mxstatus_to_string(status));
 
    /*
-    * Note: we don't allow for old multis here.  The reason is that the
-    * only caller of this function does a check that the multixact is
-    * no longer running.
+    * Note: we don't allow for old multis here.  The reason is that the only
+    * caller of this function does a check that the multixact is no longer
+    * running.
     */
    nmembers = GetMultiXactIdMembers(multi, &members, false);
 
    if (nmembers < 0)
    {
-       MultiXactMember     member;
+       MultiXactMember member;
 
        /*
         * The MultiXactId is obsolete.  This can only happen if all the
@@ -430,14 +430,14 @@ MultiXactIdExpand(MultiXactId multi, TransactionId xid, MultiXactStatus status)
    }
 
    /*
-    * Determine which of the members of the MultiXactId are still of interest.
-    * This is any running transaction, and also any transaction that grabbed
-    * something stronger than just a lock and was committed.  (An update that
-    * aborted is of no interest here.)
+    * Determine which of the members of the MultiXactId are still of
+    * interest. This is any running transaction, and also any transaction
+    * that grabbed something stronger than just a lock and was committed.
+    * (An update that aborted is of no interest here.)
     *
-    * (Removing dead members is just an optimization, but a useful one.
-    * Note we have the same race condition here as above: j could be 0 at the
-    * end of the loop.)
+    * (Removing dead members is just an optimization, but a useful one. Note
+    * we have the same race condition here as above: j could be 0 at the end
+    * of the loop.)
     */
    newMembers = (MultiXactMember *)
        palloc(sizeof(MultiXactMember) * (nmembers + 1));
@@ -641,12 +641,12 @@ MultiXactIdSetOldestVisible(void)
 
 /*
  * ReadNextMultiXactId
- *         Return the next MultiXactId to be assigned, but don't allocate it
+ *     Return the next MultiXactId to be assigned, but don't allocate it
  */
 MultiXactId
 ReadNextMultiXactId(void)
 {
-   MultiXactId     mxid;
+   MultiXactId mxid;
 
    /* XXX we could presumably do this without a lock. */
    LWLockAcquire(MultiXactGenLock, LW_SHARED);
@@ -722,9 +722,9 @@ CreateMultiXactId(int nmembers, MultiXactMember *members)
 
    /*
     * XXX Note: there's a lot of padding space in MultiXactMember.  We could
-    * find a more compact representation of this Xlog record -- perhaps all the
-    * status flags in one XLogRecData, then all the xids in another one?  Not
-    * clear that it's worth the trouble though.
+    * find a more compact representation of this Xlog record -- perhaps all
+    * the status flags in one XLogRecData, then all the xids in another one?
+    * Not clear that it's worth the trouble though.
     */
    rdata[0].data = (char *) (&xlrec);
    rdata[0].len = SizeOfMultiXactCreate;
@@ -878,7 +878,7 @@ GetNewMultiXactId(int nmembers, MultiXactOffset *offset)
 
    /*----------
     * Check to see if it's safe to assign another MultiXactId.  This protects
-    * against catastrophic data loss due to multixact wraparound.  The basic
+    * against catastrophic data loss due to multixact wraparound.  The basic
     * rules are:
     *
     * If we're past multiVacLimit, start trying to force autovacuum cycles.
@@ -892,7 +892,7 @@ GetNewMultiXactId(int nmembers, MultiXactOffset *offset)
    {
        /*
         * For safety's sake, we release MultiXactGenLock while sending
-        * signals, warnings, etc.  This is not so much because we care about
+        * signals, warnings, etc.  This is not so much because we care about
         * preserving concurrency in this situation, as to avoid any
         * possibility of deadlock while doing get_database_name(). First,
         * copy all the shared values we'll need in this path.
@@ -923,15 +923,15 @@ GetNewMultiXactId(int nmembers, MultiXactOffset *offset)
                        (errcode(ERRCODE_PROGRAM_LIMIT_EXCEEDED),
                         errmsg("database is not accepting commands that generate new MultiXactIds to avoid wraparound data loss in database \"%s\"",
                                oldest_datname),
-                        errhint("Execute a database-wide VACUUM in that database.\n"
-                                "You might also need to commit or roll back old prepared transactions.")));
+                errhint("Execute a database-wide VACUUM in that database.\n"
+                        "You might also need to commit or roll back old prepared transactions.")));
            else
                ereport(ERROR,
                        (errcode(ERRCODE_PROGRAM_LIMIT_EXCEEDED),
                         errmsg("database is not accepting commands that generate new MultiXactIds to avoid wraparound data loss in database with OID %u",
                                oldest_datoid),
-                        errhint("Execute a database-wide VACUUM in that database.\n"
-                                "You might also need to commit or roll back old prepared transactions.")));
+                errhint("Execute a database-wide VACUUM in that database.\n"
+                        "You might also need to commit or roll back old prepared transactions.")));
        }
        else if (!MultiXactIdPrecedes(result, multiWarnLimit))
        {
@@ -943,15 +943,15 @@ GetNewMultiXactId(int nmembers, MultiXactOffset *offset)
                        (errmsg("database \"%s\" must be vacuumed before %u more MultiXactIds are used",
                                oldest_datname,
                                multiWrapLimit - result),
-                        errhint("Execute a database-wide VACUUM in that database.\n"
-                                "You might also need to commit or roll back old prepared transactions.")));
+                errhint("Execute a database-wide VACUUM in that database.\n"
+                        "You might also need to commit or roll back old prepared transactions.")));
            else
                ereport(WARNING,
                        (errmsg("database with OID %u must be vacuumed before %u more MultiXactIds are used",
                                oldest_datoid,
                                multiWrapLimit - result),
-                        errhint("Execute a database-wide VACUUM in that database.\n"
-                                "You might also need to commit or roll back old prepared transactions.")));
+                errhint("Execute a database-wide VACUUM in that database.\n"
+                        "You might also need to commit or roll back old prepared transactions.")));
        }
 
        /* Re-acquire lock and start over */
@@ -995,10 +995,10 @@ GetNewMultiXactId(int nmembers, MultiXactOffset *offset)
     *
     * We don't care about MultiXactId wraparound here; it will be handled by
     * the next iteration.  But note that nextMXact may be InvalidMultiXactId
-    * or the first value on a segment-beginning page after this routine exits,
-    * so anyone else looking at the variable must be prepared to deal with
-    * either case.  Similarly, nextOffset may be zero, but we won't use that
-    * as the actual start offset of the next multixact.
+    * or the first value on a segment-beginning page after this routine
+    * exits, so anyone else looking at the variable must be prepared to deal
+    * with either case.  Similarly, nextOffset may be zero, but we won't use
+    * that as the actual start offset of the next multixact.
     */
    (MultiXactState->nextMXact)++;
 
@@ -1066,18 +1066,18 @@ GetMultiXactIdMembers(MultiXactId multi, MultiXactMember **members,
     *
     * An ID older than MultiXactState->oldestMultiXactId cannot possibly be
     * useful; it should have already been frozen by vacuum.  We've truncated
-    * the on-disk structures anyway.  Returning the wrong values could lead to
-    * an incorrect visibility result.  However, to support pg_upgrade we need
-    * to allow an empty set to be returned regardless, if the caller is
+    * the on-disk structures anyway.  Returning the wrong values could lead
+    * to an incorrect visibility result.  However, to support pg_upgrade we
+    * need to allow an empty set to be returned regardless, if the caller is
     * willing to accept it; the caller is expected to check that it's an
     * allowed condition (such as ensuring that the infomask bits set on the
-    * tuple are consistent with the pg_upgrade scenario).  If the caller is
+    * tuple are consistent with the pg_upgrade scenario).  If the caller is
     * expecting this to be called only on recently created multis, then we
     * raise an error.
     *
     * Conversely, an ID >= nextMXact shouldn't ever be seen here; if it is
-    * seen, it implies undetected ID wraparound has occurred.  This raises
-    * hard error.
+    * seen, it implies undetected ID wraparound has occurred.  This raises a
+    * hard error.
     *
     * Shared lock is enough here since we aren't modifying any global state.
     * Acquire it just long enough to grab the current counter values.  We may
@@ -1095,8 +1095,8 @@ GetMultiXactIdMembers(MultiXactId multi, MultiXactMember **members,
    {
        ereport(allow_old ? DEBUG1 : ERROR,
                (errcode(ERRCODE_INTERNAL_ERROR),
-                errmsg("MultiXactId %u does no longer exist -- apparent wraparound",
-                       multi)));
+        errmsg("MultiXactId %u does no longer exist -- apparent wraparound",
+               multi)));
        return -1;
    }
 
@@ -1349,7 +1349,7 @@ mXactCacheGetById(MultiXactId multi, MultiXactMember **members)
            memcpy(ptr, entry->members, size);
 
            debug_elog3(DEBUG2, "CacheGet: found %s",
-                       mxid_to_string(multi, entry->nmembers, entry->members));
+                    mxid_to_string(multi, entry->nmembers, entry->members));
            return entry->nmembers;
        }
    }
@@ -1423,8 +1423,8 @@ mxstatus_to_string(MultiXactStatus status)
 char *
 mxid_to_string(MultiXactId multi, int nmembers, MultiXactMember *members)
 {
-   static char    *str = NULL;
-   StringInfoData  buf;
+   static char *str = NULL;
+   StringInfoData buf;
    int         i;
 
    if (str != NULL)
@@ -1721,7 +1721,7 @@ ZeroMultiXactMemberPage(int pageno, bool writeXlog)
  *
  * StartupXLOG has already established nextMXact/nextOffset by calling
  * MultiXactSetNextMXact and/or MultiXactAdvanceNextMXact, and the oldestMulti
- * info from pg_control and/or MultiXactAdvanceOldest.  Note that we may
+ * info from pg_control and/or MultiXactAdvanceOldest. Note that we may
  * already have replayed WAL data into the SLRU files.
  *
  * We don't need any locks here, really; the SLRU locks are taken
@@ -1883,17 +1883,17 @@ MultiXactSetNextMXact(MultiXactId nextMulti,
 void
 SetMultiXactIdLimit(MultiXactId oldest_datminmxid, Oid oldest_datoid)
 {
-   MultiXactId multiVacLimit;
-   MultiXactId multiWarnLimit;
-   MultiXactId multiStopLimit;
-   MultiXactId multiWrapLimit;
-   MultiXactId curMulti;
+   MultiXactId multiVacLimit;
+   MultiXactId multiWarnLimit;
+   MultiXactId multiStopLimit;
+   MultiXactId multiWrapLimit;
+   MultiXactId curMulti;
 
    Assert(MultiXactIdIsValid(oldest_datminmxid));
 
    /*
     * The place where we actually get into deep trouble is halfway around
-    * from the oldest potentially-existing XID/multi.  (This calculation is
+    * from the oldest potentially-existing XID/multi.  (This calculation is
     * probably off by one or two counts for Xids, because the special XIDs
     * reduce the size of the loop a little bit.  But we throw in plenty of
     * slop below, so it doesn't matter.)
@@ -1911,11 +1911,11 @@ SetMultiXactIdLimit(MultiXactId oldest_datminmxid, Oid oldest_datoid)
        multiStopLimit -= FirstMultiXactId;
 
    /*
-    * We'll start complaining loudly when we get within 10M multis of the stop
-    * point.   This is kind of arbitrary, but if you let your gas gauge get
-    * down to 1% of full, would you be looking for the next gas station?  We
-    * need to be fairly liberal about this number because there are lots of
-    * scenarios where most transactions are done by automatic clients that
+    * We'll start complaining loudly when we get within 10M multis of the
+    * stop point.   This is kind of arbitrary, but if you let your gas gauge
+    * get down to 1% of full, would you be looking for the next gas station?
+    * We need to be fairly liberal about this number because there are lots
+    * of scenarios where most transactions are done by automatic clients that
     * won't pay attention to warnings. (No, we're not gonna make this
     * configurable.  If you know enough to configure it, you know enough to
     * not get in this kind of trouble in the first place.)
@@ -1925,8 +1925,8 @@ SetMultiXactIdLimit(MultiXactId oldest_datminmxid, Oid oldest_datoid)
        multiWarnLimit -= FirstMultiXactId;
 
    /*
-    * We'll start trying to force autovacuums when oldest_datminmxid gets
-    * to be more than 200 million transactions old.
+    * We'll start trying to force autovacuums when oldest_datminmxid gets to
+    * be more than 200 million transactions old.
     */
    multiVacLimit = oldest_datminmxid + 200000000;
    if (multiVacLimit < FirstMultiXactId)
@@ -1945,8 +1945,8 @@ SetMultiXactIdLimit(MultiXactId oldest_datminmxid, Oid oldest_datoid)
 
    /* Log the info */
    ereport(DEBUG1,
-           (errmsg("MultiXactId wrap limit is %u, limited by database with OID %u",
-                   multiWrapLimit, oldest_datoid)));
+    (errmsg("MultiXactId wrap limit is %u, limited by database with OID %u",
+            multiWrapLimit, oldest_datoid)));
 
    /*
     * If past the autovacuum force point, immediately signal an autovac
@@ -2127,9 +2127,9 @@ ExtendMultiXactMember(MultiXactOffset offset, int nmembers)
 MultiXactId
 GetOldestMultiXactId(void)
 {
-   MultiXactId     oldestMXact;
-   MultiXactId     nextMXact;
-   int             i;
+   MultiXactId oldestMXact;
+   MultiXactId nextMXact;
+   int         i;
 
    /*
     * This is the oldest valid value among all the OldestMemberMXactId[] and
@@ -2168,17 +2168,17 @@ GetOldestMultiXactId(void)
 
 typedef struct mxtruncinfo
 {
-   int     earliestExistingPage;
+   int         earliestExistingPage;
 } mxtruncinfo;
 
 /*
  * SlruScanDirectory callback
- *         This callback determines the earliest existing page number.
+ *     This callback determines the earliest existing page number.
  */
 static bool
 SlruScanDirCbFindEarliest(SlruCtl ctl, char *filename, int segpage, void *data)
 {
-   mxtruncinfo     *trunc = (mxtruncinfo *) data;
+   mxtruncinfo *trunc = (mxtruncinfo *) data;
 
    if (trunc->earliestExistingPage == -1 ||
        ctl->PagePrecedes(segpage, trunc->earliestExistingPage))
@@ -2186,7 +2186,7 @@ SlruScanDirCbFindEarliest(SlruCtl ctl, char *filename, int segpage, void *data)
        trunc->earliestExistingPage = segpage;
    }
 
-   return false;   /* keep going */
+   return false;               /* keep going */
 }
 
 /*
@@ -2200,16 +2200,16 @@ SlruScanDirCbFindEarliest(SlruCtl ctl, char *filename, int segpage, void *data)
 void
 TruncateMultiXact(MultiXactId oldestMXact)
 {
-   MultiXactOffset oldestOffset;
-   mxtruncinfo     trunc;
-   MultiXactId     earliest;
+   MultiXactOffset oldestOffset;
+   mxtruncinfo trunc;
+   MultiXactId earliest;
 
    /*
     * Note we can't just plow ahead with the truncation; it's possible that
     * there are no segments to truncate, which is a problem because we are
-    * going to attempt to read the offsets page to determine where to truncate
-    * the members SLRU.  So we first scan the directory to determine the
-    * earliest offsets page number that we can read without error.
+    * going to attempt to read the offsets page to determine where to
+    * truncate the members SLRU.  So we first scan the directory to determine
+    * the earliest offsets page number that we can read without error.
     */
    trunc.earliestExistingPage = -1;
    SlruScanDirectory(MultiXactOffsetCtl, SlruScanDirCbFindEarliest, &trunc);
@@ -2220,9 +2220,9 @@ TruncateMultiXact(MultiXactId oldestMXact)
        return;
 
    /*
-    * First, compute the safe truncation point for MultiXactMember.
-    * This is the starting offset of the multixact we were passed
-    * as MultiXactOffset cutoff.
+    * First, compute the safe truncation point for MultiXactMember. This is
+    * the starting offset of the multixact we were passed as MultiXactOffset
+    * cutoff.
     */
    {
        int         pageno;
@@ -2380,7 +2380,7 @@ multixact_redo(XLogRecPtr lsn, XLogRecord *record)
    else if (info == XLOG_MULTIXACT_CREATE_ID)
    {
        xl_multixact_create *xlrec =
-           (xl_multixact_create *) XLogRecGetData(record);
+       (xl_multixact_create *) XLogRecGetData(record);
        TransactionId max_xid;
        int         i;
 
@@ -2427,12 +2427,12 @@ pg_get_multixact_members(PG_FUNCTION_ARGS)
 {
    typedef struct
    {
-       MultiXactMember *members;
-       int             nmembers;
-       int             iter;
+       MultiXactMember *members;
+       int         nmembers;
+       int         iter;
    } mxact;
-   MultiXactId     mxid = PG_GETARG_UINT32(0);
-   mxact          *multi;
+   MultiXactId mxid = PG_GETARG_UINT32(0);
+   mxact      *multi;
    FuncCallContext *funccxt;
 
    if (mxid < FirstMultiXactId)
index 921da62c22adcc62cbe8c6d90426953271180c16..7bb523a4fb44143142c859bc55abc8e447cf2015 100644 (file)
@@ -15,7 +15,7 @@
  * <parentTLI> <switchpoint> <reason>
  *
  * parentTLI   ID of the parent timeline
- * switchpoint XLogRecPtr of the WAL position where the switch happened
+ * switchpoint XLogRecPtr of the WAL position where the switch happened
  * reason      human-readable explanation of why the timeline was changed
  *
  * The fields are separated by tabs. Lines beginning with # are comments, and
@@ -49,7 +49,7 @@ restoreTimeLineHistoryFiles(TimeLineID begin, TimeLineID end)
 {
    char        path[MAXPGPATH];
    char        histfname[MAXFNAMELEN];
-   TimeLineID tli;
+   TimeLineID  tli;
 
    for (tli = begin; tli < end; tli++)
    {
@@ -179,8 +179,8 @@ readTimeLineHistory(TimeLineID targetTLI)
            errhint("Timeline IDs must be less than child timeline's ID.")));
 
    /*
-    * Create one more entry for the "tip" of the timeline, which has no
-    * entry in the history file.
+    * Create one more entry for the "tip" of the timeline, which has no entry
+    * in the history file.
     */
    entry = (TimeLineHistoryEntry *) palloc(sizeof(TimeLineHistoryEntry));
    entry->tli = targetTLI;
@@ -418,7 +418,7 @@ writeTimeLineHistory(TimeLineID newTLI, TimeLineID parentTLI,
 
    /*
     * Prefer link() to rename() here just to be really sure that we don't
-    * overwrite an existing file.  However, there shouldn't be one, so
+    * overwrite an existing file.  However, there shouldn't be one, so
     * rename() is an acceptable substitute except for the truly paranoid.
     */
 #if HAVE_WORKING_LINK
@@ -530,7 +530,7 @@ writeTimeLineHistoryFile(TimeLineID tli, char *content, int size)
 bool
 tliInHistory(TimeLineID tli, List *expectedTLEs)
 {
-   ListCell *cell;
+   ListCell   *cell;
 
    foreach(cell, expectedTLEs)
    {
@@ -548,11 +548,12 @@ tliInHistory(TimeLineID tli, List *expectedTLEs)
 TimeLineID
 tliOfPointInHistory(XLogRecPtr ptr, List *history)
 {
-   ListCell *cell;
+   ListCell   *cell;
 
    foreach(cell, history)
    {
        TimeLineHistoryEntry *tle = (TimeLineHistoryEntry *) lfirst(cell);
+
        if ((XLogRecPtrIsInvalid(tle->begin) || tle->begin <= ptr) &&
            (XLogRecPtrIsInvalid(tle->end) || ptr < tle->end))
        {
@@ -563,7 +564,7 @@ tliOfPointInHistory(XLogRecPtr ptr, List *history)
 
    /* shouldn't happen. */
    elog(ERROR, "timeline history was not contiguous");
-   return 0;   /* keep compiler quiet */
+   return 0;                   /* keep compiler quiet */
 }
 
 /*
@@ -579,7 +580,7 @@ tliSwitchPoint(TimeLineID tli, List *history, TimeLineID *nextTLI)
 
    if (nextTLI)
        *nextTLI = 0;
-   foreach (cell, history)
+   foreach(cell, history)
    {
        TimeLineHistoryEntry *tle = (TimeLineHistoryEntry *) lfirst(cell);
 
@@ -592,5 +593,5 @@ tliSwitchPoint(TimeLineID tli, List *history, TimeLineID *nextTLI)
    ereport(ERROR,
            (errmsg("requested timeline %u is not in this server's history",
                    tli)));
-   return InvalidXLogRecPtr; /* keep compiler quiet */
+   return InvalidXLogRecPtr;   /* keep compiler quiet */
 }
index e62286f9f98eccfd9a30e2e8f4908e8757b48672..31e868d4bc7a0ad23d7ade8230cabe116d6ee437 100644 (file)
@@ -1024,8 +1024,8 @@ RecordTransactionCommit(void)
         *
         * It's safe to change the delayChkpt flag of our own backend without
         * holding the ProcArrayLock, since we're the only one modifying it.
-        * This makes checkpoint's determination of which xacts are delayChkpt a
-        * bit fuzzy, but it doesn't matter.
+        * This makes checkpoint's determination of which xacts are delayChkpt
+        * bit fuzzy, but it doesn't matter.
         */
        START_CRIT_SECTION();
        MyPgXact->delayChkpt = true;
@@ -4683,12 +4683,11 @@ xact_redo_commit_internal(TransactionId xid, XLogRecPtr lsn,
     * from the template database, and then commit the transaction. If we
     * crash after all the files have been copied but before the commit, you
     * have files in the data directory without an entry in pg_database. To
-    * minimize the window
-    * for that, we use ForceSyncCommit() to rush the commit record to disk as
-    * quick as possible. We have the same window during recovery, and forcing
-    * an XLogFlush() (which updates minRecoveryPoint during recovery) helps
-    * to reduce that problem window, for any user that requested
-    * ForceSyncCommit().
+    * minimize the window for that, we use ForceSyncCommit() to rush the
+    * commit record to disk as quick as possible. We have the same window
+    * during recovery, and forcing an XLogFlush() (which updates
+    * minRecoveryPoint during recovery) helps to reduce that problem window,
+    * for any user that requested ForceSyncCommit().
     */
    if (XactCompletionForceSyncCommit(xinfo))
        XLogFlush(lsn);
index 76b52fb1dcb0d0f35894ac7b5495c8a674b3d1c2..dcd33c931c0f5e00cdab904f5fe6cc8c47606568 100644 (file)
@@ -200,14 +200,14 @@ static int    LocalXLogInsertAllowed = -1;
  * will switch to using offline XLOG archives as soon as we reach the end of
  * WAL in pg_xlog.
 */
-bool ArchiveRecoveryRequested = false;
-bool InArchiveRecovery = false;
+bool       ArchiveRecoveryRequested = false;
+bool       InArchiveRecovery = false;
 
 /* Was the last xlog file restored from archive, or local? */
 static bool restoredFromArchive = false;
 
 /* options taken from recovery.conf for archive recovery */
-char *recoveryRestoreCommand = NULL;
+char      *recoveryRestoreCommand = NULL;
 static char *recoveryEndCommand = NULL;
 static char *archiveCleanupCommand = NULL;
 static RecoveryTargetType recoveryTarget = RECOVERY_TARGET_UNSET;
@@ -223,7 +223,7 @@ static char *PrimaryConnInfo = NULL;
 static char *TriggerFile = NULL;
 
 /* are we currently in standby mode? */
-bool StandbyMode = false;
+bool       StandbyMode = false;
 
 /* whether request for fast promotion has been made yet */
 static bool fast_promote = false;
@@ -403,10 +403,11 @@ typedef struct XLogCtlData
    uint32      ckptXidEpoch;   /* nextXID & epoch of latest checkpoint */
    TransactionId ckptXid;
    XLogRecPtr  asyncXactLSN;   /* LSN of newest async commit/abort */
-   XLogSegNo   lastRemovedSegNo; /* latest removed/recycled XLOG segment */
+   XLogSegNo   lastRemovedSegNo;       /* latest removed/recycled XLOG
+                                        * segment */
 
    /* Fake LSN counter, for unlogged relations. Protected by ulsn_lck */
-   XLogRecPtr  unloggedLSN;
+   XLogRecPtr  unloggedLSN;
    slock_t     ulsn_lck;
 
    /* Protected by WALWriteLock: */
@@ -548,14 +549,14 @@ static XLogwrtResult LogwrtResult = {0, 0};
  */
 typedef enum
 {
-   XLOG_FROM_ANY = 0,      /* request to read WAL from any source */
-   XLOG_FROM_ARCHIVE,      /* restored using restore_command */
-   XLOG_FROM_PG_XLOG,      /* existing file in pg_xlog */
-   XLOG_FROM_STREAM,       /* streamed from master */
+   XLOG_FROM_ANY = 0,          /* request to read WAL from any source */
+   XLOG_FROM_ARCHIVE,          /* restored using restore_command */
+   XLOG_FROM_PG_XLOG,          /* existing file in pg_xlog */
+   XLOG_FROM_STREAM,           /* streamed from master */
 } XLogSource;
 
 /* human-readable names for XLogSources, for debugging output */
-static const char *xlogSourceNames[] = { "any", "archive", "pg_xlog", "stream" };
+static const char *xlogSourceNames[] = {"any", "archive", "pg_xlog", "stream"};
 
 /*
  * openLogFile is -1 or a kernel FD for an open log file segment.
@@ -589,7 +590,7 @@ static XLogSource readSource = 0;       /* XLOG_FROM_* code */
  * next.
  */
 static XLogSource currentSource = 0;   /* XLOG_FROM_* code */
-static bool    lastSourceFailed = false;
+static bool lastSourceFailed = false;
 
 typedef struct XLogPageReadPrivate
 {
@@ -607,7 +608,7 @@ typedef struct XLogPageReadPrivate
  * XLogReceiptSource tracks where we last successfully read some WAL.)
  */
 static TimestampTz XLogReceiptTime = 0;
-static XLogSource XLogReceiptSource = 0;   /* XLOG_FROM_* code */
+static XLogSource XLogReceiptSource = 0;       /* XLOG_FROM_* code */
 
 /* State information for XLOG reading */
 static XLogRecPtr ReadRecPtr;  /* start of last record read */
@@ -649,7 +650,7 @@ static void KeepLogSeg(XLogRecPtr recptr, XLogSegNo *logSegNo);
 static bool XLogCheckBuffer(XLogRecData *rdata, bool holdsExclusiveLock,
                XLogRecPtr *lsn, BkpBlock *bkpb);
 static Buffer RestoreBackupBlockContents(XLogRecPtr lsn, BkpBlock bkpb,
-               char *blk, bool get_cleanup_lock, bool keep_buffer);
+                        char *blk, bool get_cleanup_lock, bool keep_buffer);
 static bool AdvanceXLInsertBuffer(bool new_segment);
 static bool XLogCheckpointNeeded(XLogSegNo new_segno);
 static void XLogWrite(XLogwrtRqst WriteRqst, bool flexible, bool xlog_switch);
@@ -658,7 +659,7 @@ static bool InstallXLogFileSegment(XLogSegNo *segno, char *tmppath,
                       bool use_lock);
 static int XLogFileRead(XLogSegNo segno, int emode, TimeLineID tli,
             int source, bool notexistOk);
-static int XLogFileReadAnyTLI(XLogSegNo segno, int emode, int source);
+static int XLogFileReadAnyTLI(XLogSegNo segno, int emode, int source);
 static int XLogPageRead(XLogReaderState *xlogreader, XLogRecPtr targetPagePtr,
             int reqLen, XLogRecPtr targetRecPtr, char *readBuf,
             TimeLineID *readTLI);
@@ -823,7 +824,7 @@ begin:;
                    /* OK, put it in this slot */
                    dtbuf[i] = rdt->buffer;
                    if (doPageWrites && XLogCheckBuffer(rdt, true,
-                                       &(dtbuf_lsn[i]), &(dtbuf_xlg[i])))
+                                          &(dtbuf_lsn[i]), &(dtbuf_xlg[i])))
                    {
                        dtbuf_bkp[i] = true;
                        rdt->data = NULL;
@@ -1251,10 +1252,10 @@ XLogCheckBuffer(XLogRecData *rdata, bool holdsExclusiveLock,
    page = BufferGetPage(rdata->buffer);
 
    /*
-    * We assume page LSN is first data on *every* page that can be passed
-    * to XLogInsert, whether it has the standard page layout or not. We
-    * don't need to take the buffer header lock for PageGetLSN if we hold
-    * an exclusive lock on the page and/or the relation.
+    * We assume page LSN is first data on *every* page that can be passed to
+    * XLogInsert, whether it has the standard page layout or not. We don't
+    * need to take the buffer header lock for PageGetLSN if we hold an
+    * exclusive lock on the page and/or the relation.
     */
    if (holdsExclusiveLock)
        *lsn = PageGetLSN(page);
@@ -1545,7 +1546,7 @@ XLogWrite(XLogwrtRqst WriteRqst, bool flexible, bool xlog_switch)
         */
        if (LogwrtResult.Write >= XLogCtl->xlblocks[curridx])
            elog(PANIC, "xlog write request %X/%X is past end of log %X/%X",
-                (uint32) (LogwrtResult.Write >> 32), (uint32) LogwrtResult.Write,
+           (uint32) (LogwrtResult.Write >> 32), (uint32) LogwrtResult.Write,
                 (uint32) (XLogCtl->xlblocks[curridx] >> 32),
                 (uint32) XLogCtl->xlblocks[curridx]);
 
@@ -1611,9 +1612,9 @@ XLogWrite(XLogwrtRqst WriteRqst, bool flexible, bool xlog_switch)
                if (lseek(openLogFile, (off_t) startoffset, SEEK_SET) < 0)
                    ereport(PANIC,
                            (errcode_for_file_access(),
-                            errmsg("could not seek in log file %s to offset %u: %m",
-                                   XLogFileNameP(ThisTimeLineID, openLogSegNo),
-                                   startoffset)));
+                    errmsg("could not seek in log file %s to offset %u: %m",
+                           XLogFileNameP(ThisTimeLineID, openLogSegNo),
+                           startoffset)));
                openLogOff = startoffset;
            }
 
@@ -1858,7 +1859,7 @@ UpdateMinRecoveryPoint(XLogRecPtr lsn, bool force)
        if (!force && newMinRecoveryPoint < lsn)
            elog(WARNING,
               "xlog min recovery request %X/%X is past current point %X/%X",
-                (uint32) (lsn >> 32) , (uint32) lsn,
+                (uint32) (lsn >> 32), (uint32) lsn,
                 (uint32) (newMinRecoveryPoint >> 32),
                 (uint32) newMinRecoveryPoint);
 
@@ -1872,10 +1873,10 @@ UpdateMinRecoveryPoint(XLogRecPtr lsn, bool force)
            minRecoveryPointTLI = newMinRecoveryPointTLI;
 
            ereport(DEBUG2,
-                   (errmsg("updated min recovery point to %X/%X on timeline %u",
-                           (uint32) (minRecoveryPoint >> 32),
-                           (uint32) minRecoveryPoint,
-                           newMinRecoveryPointTLI)));
+               (errmsg("updated min recovery point to %X/%X on timeline %u",
+                       (uint32) (minRecoveryPoint >> 32),
+                       (uint32) minRecoveryPoint,
+                       newMinRecoveryPointTLI)));
        }
    }
    LWLockRelease(ControlFileLock);
@@ -1915,7 +1916,7 @@ XLogFlush(XLogRecPtr record)
        elog(LOG, "xlog flush request %X/%X; write %X/%X; flush %X/%X",
             (uint32) (record >> 32), (uint32) record,
             (uint32) (LogwrtResult.Write >> 32), (uint32) LogwrtResult.Write,
-            (uint32) (LogwrtResult.Flush >> 32), (uint32) LogwrtResult.Flush);
+          (uint32) (LogwrtResult.Flush >> 32), (uint32) LogwrtResult.Flush);
 #endif
 
    START_CRIT_SECTION();
@@ -1979,8 +1980,8 @@ XLogFlush(XLogRecPtr record)
        /*
         * Sleep before flush! By adding a delay here, we may give further
         * backends the opportunity to join the backlog of group commit
-        * followers; this can significantly improve transaction throughput, at
-        * the risk of increasing transaction latency.
+        * followers; this can significantly improve transaction throughput,
+        * at the risk of increasing transaction latency.
         *
         * We do not sleep if enableFsync is not turned on, nor if there are
         * fewer than CommitSiblings other backends with active transactions.
@@ -1995,7 +1996,7 @@ XLogFlush(XLogRecPtr record)
            XLogCtlInsert *Insert = &XLogCtl->Insert;
            uint32      freespace = INSERT_FREESPACE(Insert);
 
-           if (freespace == 0)     /* buffer is full */
+           if (freespace == 0) /* buffer is full */
                WriteRqstPtr = XLogCtl->xlblocks[Insert->curridx];
            else
            {
@@ -2048,7 +2049,7 @@ XLogFlush(XLogRecPtr record)
        elog(ERROR,
        "xlog flush request %X/%X is not satisfied --- flushed only to %X/%X",
             (uint32) (record >> 32), (uint32) record,
-            (uint32) (LogwrtResult.Flush >> 32), (uint32) LogwrtResult.Flush);
+          (uint32) (LogwrtResult.Flush >> 32), (uint32) LogwrtResult.Flush);
 }
 
 /*
@@ -2127,7 +2128,7 @@ XLogBackgroundFlush(void)
        elog(LOG, "xlog bg flush request %X/%X; write %X/%X; flush %X/%X",
             (uint32) (WriteRqstPtr >> 32), (uint32) WriteRqstPtr,
             (uint32) (LogwrtResult.Write >> 32), (uint32) LogwrtResult.Write,
-            (uint32) (LogwrtResult.Flush >> 32), (uint32) LogwrtResult.Flush);
+          (uint32) (LogwrtResult.Flush >> 32), (uint32) LogwrtResult.Flush);
 #endif
 
    START_CRIT_SECTION();
@@ -2379,7 +2380,7 @@ XLogFileInit(XLogSegNo logsegno, bool *use_existent, bool use_lock)
    if (fd < 0)
        ereport(ERROR,
                (errcode_for_file_access(),
-          errmsg("could not open file \"%s\": %m", path)));
+                errmsg("could not open file \"%s\": %m", path)));
 
    elog(DEBUG2, "done creating and filling new WAL file");
 
@@ -2719,7 +2720,7 @@ XLogFileReadAnyTLI(XLogSegNo segno, int emode, int source)
     * want to read.
     *
     * If we haven't read the timeline history file yet, read it now, so that
-    * we know which TLIs to scan.  We don't save the list in expectedTLEs,
+    * we know which TLIs to scan.  We don't save the list in expectedTLEs,
     * however, unless we actually find a valid segment.  That way if there is
     * neither a timeline history file nor a WAL segment in the archive, and
     * streaming replication is set up, we'll read the timeline history file
@@ -3215,8 +3216,8 @@ RestoreBackupBlockContents(XLogRecPtr lsn, BkpBlock bkpb, char *blk,
    }
 
    /*
-    * The checksum value on this page is currently invalid. We don't
-    * need to reset it here since it will be set before being written.
+    * The checksum value on this page is currently invalid. We don't need to
+    * reset it here since it will be set before being written.
     */
 
    PageSetLSN(page, lsn);
@@ -3258,7 +3259,7 @@ ReadRecord(XLogReaderState *xlogreader, XLogRecPtr RecPtr, int emode,
 
    for (;;)
    {
-       char   *errormsg;
+       char       *errormsg;
 
        record = XLogReadRecord(xlogreader, RecPtr, &errormsg);
        ReadRecPtr = xlogreader->ReadRecPtr;
@@ -3272,34 +3273,35 @@ ReadRecord(XLogReaderState *xlogreader, XLogRecPtr RecPtr, int emode,
            }
 
            /*
-            * We only end up here without a message when XLogPageRead() failed
-            * - in that case we already logged something.
-            * In StandbyMode that only happens if we have been triggered, so
-            * we shouldn't loop anymore in that case.
+            * We only end up here without a message when XLogPageRead()
+            * failed - in that case we already logged something. In
+            * StandbyMode that only happens if we have been triggered, so we
+            * shouldn't loop anymore in that case.
             */
            if (errormsg)
                ereport(emode_for_corrupt_record(emode,
                                                 RecPtr ? RecPtr : EndRecPtr),
-                       (errmsg_internal("%s", errormsg) /* already translated */));
+               (errmsg_internal("%s", errormsg) /* already translated */ ));
        }
+
        /*
         * Check page TLI is one of the expected values.
         */
        else if (!tliInHistory(xlogreader->latestPageTLI, expectedTLEs))
        {
            char        fname[MAXFNAMELEN];
-           XLogSegNo segno;
-           int32 offset;
+           XLogSegNo   segno;
+           int32       offset;
 
            XLByteToSeg(xlogreader->latestPagePtr, segno);
            offset = xlogreader->latestPagePtr % XLogSegSize;
            XLogFileName(fname, xlogreader->readPageTLI, segno);
            ereport(emode_for_corrupt_record(emode,
                                             RecPtr ? RecPtr : EndRecPtr),
-                   (errmsg("unexpected timeline ID %u in log segment %s, offset %u",
-                           xlogreader->latestPageTLI,
-                           fname,
-                           offset)));
+           (errmsg("unexpected timeline ID %u in log segment %s, offset %u",
+                   xlogreader->latestPageTLI,
+                   fname,
+                   offset)));
            record = NULL;
        }
 
@@ -3314,10 +3316,10 @@ ReadRecord(XLogReaderState *xlogreader, XLogRecPtr RecPtr, int emode,
            lastSourceFailed = true;
 
            /*
-            * If archive recovery was requested, but we were still doing crash
-            * recovery, switch to archive recovery and retry using the offline
-            * archive. We have now replayed all the valid WAL in pg_xlog, so
-            * we are presumably now consistent.
+            * If archive recovery was requested, but we were still doing
+            * crash recovery, switch to archive recovery and retry using the
+            * offline archive. We have now replayed all the valid WAL in
+            * pg_xlog, so we are presumably now consistent.
             *
             * We require that there's at least some valid WAL present in
             * pg_xlog, however (!fetch_ckpt). We could recover using the WAL
@@ -3401,11 +3403,11 @@ rescanLatestTimeLine(void)
    newExpectedTLEs = readTimeLineHistory(newtarget);
 
    /*
-    * If the current timeline is not part of the history of the new
-    * timeline, we cannot proceed to it.
+    * If the current timeline is not part of the history of the new timeline,
+    * we cannot proceed to it.
     */
    found = false;
-   foreach (cell, newExpectedTLEs)
+   foreach(cell, newExpectedTLEs)
    {
        currentTle = (TimeLineHistoryEntry *) lfirst(cell);
 
@@ -3812,7 +3814,7 @@ DataChecksumsEnabled(void)
 XLogRecPtr
 GetFakeLSNForUnloggedRel(void)
 {
-   XLogRecPtr nextUnloggedLSN;
+   XLogRecPtr  nextUnloggedLSN;
 
    /* use volatile pointer to prevent code rearrangement */
    volatile XLogCtlData *xlogctl = XLogCtl;
@@ -4991,15 +4993,15 @@ StartupXLOG(void)
        ereport(ERROR,
                (errcode(ERRCODE_OUT_OF_MEMORY),
                 errmsg("out of memory"),
-                errdetail("Failed while allocating an XLog reading processor")));
+           errdetail("Failed while allocating an XLog reading processor")));
    xlogreader->system_identifier = ControlFile->system_identifier;
 
    if (read_backup_label(&checkPointLoc, &backupEndRequired,
                          &backupFromStandby))
    {
        /*
-        * Archive recovery was requested, and thanks to the backup label file,
-        * we know how far we need to replay to reach consistency. Enter
+        * Archive recovery was requested, and thanks to the backup label
+        * file, we know how far we need to replay to reach consistency. Enter
         * archive recovery directly.
         */
        InArchiveRecovery = true;
@@ -5017,7 +5019,7 @@ StartupXLOG(void)
            wasShutdown = (record->xl_info == XLOG_CHECKPOINT_SHUTDOWN);
            ereport(DEBUG1,
                    (errmsg("checkpoint record is at %X/%X",
-                           (uint32) (checkPointLoc >> 32), (uint32) checkPointLoc)));
+                  (uint32) (checkPointLoc >> 32), (uint32) checkPointLoc)));
            InRecovery = true;  /* force recovery even if SHUTDOWNED */
 
            /*
@@ -5049,8 +5051,8 @@ StartupXLOG(void)
        /*
         * It's possible that archive recovery was requested, but we don't
         * know how far we need to replay the WAL before we reach consistency.
-        * This can happen for example if a base backup is taken from a running
-        * server using an atomic filesystem snapshot, without calling
+        * This can happen for example if a base backup is taken from a
+        * running server using an atomic filesystem snapshot, without calling
         * pg_start/stop_backup. Or if you just kill a running master server
         * and put it into archive recovery by creating a recovery.conf file.
         *
@@ -5058,8 +5060,8 @@ StartupXLOG(void)
         * replaying all the WAL present in pg_xlog, and only enter archive
         * recovery after that.
         *
-        * But usually we already know how far we need to replay the WAL (up to
-        * minRecoveryPoint, up to backupEndPoint, or until we see an
+        * But usually we already know how far we need to replay the WAL (up
+        * to minRecoveryPoint, up to backupEndPoint, or until we see an
         * end-of-backup record), and we can enter archive recovery directly.
         */
        if (ArchiveRecoveryRequested &&
@@ -5084,7 +5086,7 @@ StartupXLOG(void)
        {
            ereport(DEBUG1,
                    (errmsg("checkpoint record is at %X/%X",
-                           (uint32) (checkPointLoc >> 32), (uint32) checkPointLoc)));
+                  (uint32) (checkPointLoc >> 32), (uint32) checkPointLoc)));
        }
        else if (StandbyMode)
        {
@@ -5103,7 +5105,7 @@ StartupXLOG(void)
            {
                ereport(LOG,
                        (errmsg("using previous checkpoint record at %X/%X",
-                               (uint32) (checkPointLoc >> 32), (uint32) checkPointLoc)));
+                  (uint32) (checkPointLoc >> 32), (uint32) checkPointLoc)));
                InRecovery = true;      /* force recovery even if SHUTDOWNED */
            }
            else
@@ -5119,15 +5121,16 @@ StartupXLOG(void)
     * timeline in the history of the requested timeline, we cannot proceed:
     * the backup is not part of the history of the requested timeline.
     */
-   Assert(expectedTLEs); /* was initialized by reading checkpoint record */
+   Assert(expectedTLEs);       /* was initialized by reading checkpoint
+                                * record */
    if (tliOfPointInHistory(checkPointLoc, expectedTLEs) !=
-           checkPoint.ThisTimeLineID)
+       checkPoint.ThisTimeLineID)
    {
-       XLogRecPtr switchpoint;
+       XLogRecPtr  switchpoint;
 
        /*
-        * tliSwitchPoint will throw an error if the checkpoint's timeline
-        * is not in expectedTLEs at all.
+        * tliSwitchPoint will throw an error if the checkpoint's timeline is
+        * not in expectedTLEs at all.
         */
        switchpoint = tliSwitchPoint(ControlFile->checkPointCopy.ThisTimeLineID, expectedTLEs, NULL);
        ereport(FATAL,
@@ -5146,8 +5149,8 @@ StartupXLOG(void)
     * history, too.
     */
    if (!XLogRecPtrIsInvalid(ControlFile->minRecoveryPoint) &&
-       tliOfPointInHistory(ControlFile->minRecoveryPoint - 1, expectedTLEs) !=
-           ControlFile->minRecoveryPointTLI)
+     tliOfPointInHistory(ControlFile->minRecoveryPoint - 1, expectedTLEs) !=
+       ControlFile->minRecoveryPointTLI)
        ereport(FATAL,
                (errmsg("requested timeline %u does not contain minimum recovery point %X/%X on timeline %u",
                        recoveryTargetTLI,
@@ -5159,7 +5162,7 @@ StartupXLOG(void)
 
    ereport(DEBUG1,
            (errmsg("redo record is at %X/%X; shutdown %s",
-                   (uint32) (checkPoint.redo >> 32), (uint32) checkPoint.redo,
+                 (uint32) (checkPoint.redo >> 32), (uint32) checkPoint.redo,
                    wasShutdown ? "TRUE" : "FALSE")));
    ereport(DEBUG1,
            (errmsg("next transaction ID: %u/%u; next OID: %u",
@@ -5206,16 +5209,16 @@ StartupXLOG(void)
    ThisTimeLineID = checkPoint.ThisTimeLineID;
 
    /*
-    * Copy any missing timeline history files between 'now' and the
-    * recovery target timeline from archive to pg_xlog. While we don't need
-    * those files ourselves - the history file of the recovery target
-    * timeline covers all the previous timelines in the history too - a
-    * cascading standby server might be interested in them. Or, if you
-    * archive the WAL from this server to a different archive than the
-    * master, it'd be good for all the history files to get archived there
-    * after failover, so that you can use one of the old timelines as a
-    * PITR target. Timeline history files are small, so it's better to copy
-    * them unnecessarily than not copy them and regret later.
+    * Copy any missing timeline history files between 'now' and the recovery
+    * target timeline from archive to pg_xlog. While we don't need those
+    * files ourselves - the history file of the recovery target timeline
+    * covers all the previous timelines in the history too - a cascading
+    * standby server might be interested in them. Or, if you archive the WAL
+    * from this server to a different archive than the master, it'd be good
+    * for all the history files to get archived there after failover, so that
+    * you can use one of the old timelines as a PITR target. Timeline history
+    * files are small, so it's better to copy them unnecessarily than not
+    * copy them and regret later.
     */
    restoreTimeLineHistoryFiles(ThisTimeLineID, recoveryTargetTLI);
 
@@ -5271,10 +5274,10 @@ StartupXLOG(void)
                            "automatic recovery in progress")));
            if (recoveryTargetTLI > ControlFile->checkPointCopy.ThisTimeLineID)
                ereport(LOG,
-                   (errmsg("crash recovery starts in timeline %u "
-                           "and has target timeline %u",
-                           ControlFile->checkPointCopy.ThisTimeLineID,
-                           recoveryTargetTLI)));
+                       (errmsg("crash recovery starts in timeline %u "
+                               "and has target timeline %u",
+                               ControlFile->checkPointCopy.ThisTimeLineID,
+                               recoveryTargetTLI)));
            ControlFile->state = DB_IN_CRASH_RECOVERY;
        }
        ControlFile->prevCheckPoint = ControlFile->checkPoint;
@@ -5509,14 +5512,15 @@ StartupXLOG(void)
 
            ereport(LOG,
                    (errmsg("redo starts at %X/%X",
-                           (uint32) (ReadRecPtr >> 32), (uint32) ReadRecPtr)));
+                        (uint32) (ReadRecPtr >> 32), (uint32) ReadRecPtr)));
 
            /*
             * main redo apply loop
             */
            do
            {
-               bool switchedTLI = false;
+               bool        switchedTLI = false;
+
 #ifdef WAL_DEBUG
                if (XLOG_DEBUG ||
                 (rmid == RM_XACT_ID && trace_recovery_messages <= DEBUG2) ||
@@ -5526,8 +5530,8 @@ StartupXLOG(void)
 
                    initStringInfo(&buf);
                    appendStringInfo(&buf, "REDO @ %X/%X; LSN %X/%X: ",
-                                    (uint32) (ReadRecPtr >> 32), (uint32) ReadRecPtr,
-                                    (uint32) (EndRecPtr >> 32), (uint32) EndRecPtr);
+                           (uint32) (ReadRecPtr >> 32), (uint32) ReadRecPtr,
+                            (uint32) (EndRecPtr >> 32), (uint32) EndRecPtr);
                    xlog_outrec(&buf, record);
                    appendStringInfo(&buf, " - ");
                    RmgrTable[record->xl_rmid].rm_desc(&buf,
@@ -5598,13 +5602,13 @@ StartupXLOG(void)
                }
 
                /*
-                * Before replaying this record, check if this record
-                * causes the current timeline to change. The record is
-                * already considered to be part of the new timeline,
-                * so we update ThisTimeLineID before replaying it.
-                * That's important so that replayEndTLI, which is
-                * recorded as the minimum recovery point's TLI if
-                * recovery stops after this record, is set correctly.
+                * Before replaying this record, check if this record causes
+                * the current timeline to change. The record is already
+                * considered to be part of the new timeline, so we update
+                * ThisTimeLineID before replaying it. That's important so
+                * that replayEndTLI, which is recorded as the minimum
+                * recovery point's TLI if recovery stops after this record,
+                * is set correctly.
                 */
                if (record->xl_rmid == RM_XLOG_ID)
                {
@@ -5622,7 +5626,7 @@ StartupXLOG(void)
                    }
                    else if (info == XLOG_END_OF_RECOVERY)
                    {
-                       xl_end_of_recovery  xlrec;
+                       xl_end_of_recovery xlrec;
 
                        memcpy(&xlrec, XLogRecGetData(record), sizeof(xl_end_of_recovery));
                        newTLI = xlrec.ThisTimeLineID;
@@ -5699,7 +5703,7 @@ StartupXLOG(void)
 
            ereport(LOG,
                    (errmsg("redo done at %X/%X",
-                           (uint32) (ReadRecPtr >> 32), (uint32) ReadRecPtr)));
+                        (uint32) (ReadRecPtr >> 32), (uint32) ReadRecPtr)));
            xtime = GetLatestXTime();
            if (xtime)
                ereport(LOG,
@@ -5804,7 +5808,7 @@ StartupXLOG(void)
    PrevTimeLineID = ThisTimeLineID;
    if (ArchiveRecoveryRequested)
    {
-       char    reason[200];
+       char        reason[200];
 
        Assert(InArchiveRecovery);
 
@@ -5952,8 +5956,9 @@ StartupXLOG(void)
         * allows some extra error checking in xlog_redo.
         *
         * In fast promotion, only create a lightweight end-of-recovery record
-        * instead of a full checkpoint. A checkpoint is requested later, after
-        * we're fully out of recovery mode and already accepting queries.
+        * instead of a full checkpoint. A checkpoint is requested later,
+        * after we're fully out of recovery mode and already accepting
+        * queries.
         */
        if (bgwriterLaunched)
        {
@@ -5972,14 +5977,15 @@ StartupXLOG(void)
                    fast_promoted = true;
 
                    /*
-                    * Insert a special WAL record to mark the end of recovery,
-                    * since we aren't doing a checkpoint. That means that the
-                    * checkpointer process may likely be in the middle of a
-                    * time-smoothed restartpoint and could continue to be for
-                    * minutes after this. That sounds strange, but the effect
-                    * is roughly the same and it would be stranger to try to
-                    * come out of the restartpoint and then checkpoint.
-                    * We request a checkpoint later anyway, just for safety.
+                    * Insert a special WAL record to mark the end of
+                    * recovery, since we aren't doing a checkpoint. That
+                    * means that the checkpointer process may likely be in
+                    * the middle of a time-smoothed restartpoint and could
+                    * continue to be for minutes after this. That sounds
+                    * strange, but the effect is roughly the same and it
+                    * would be stranger to try to come out of the
+                    * restartpoint and then checkpoint. We request a
+                    * checkpoint later anyway, just for safety.
                     */
                    CreateEndOfRecoveryRecord();
                }
@@ -5987,8 +5993,8 @@ StartupXLOG(void)
 
            if (!fast_promoted)
                RequestCheckpoint(CHECKPOINT_END_OF_RECOVERY |
-                                   CHECKPOINT_IMMEDIATE |
-                                   CHECKPOINT_WAIT);
+                                 CHECKPOINT_IMMEDIATE |
+                                 CHECKPOINT_WAIT);
        }
        else
            CreateCheckPoint(CHECKPOINT_END_OF_RECOVERY | CHECKPOINT_IMMEDIATE);
@@ -6092,8 +6098,8 @@ StartupXLOG(void)
    }
 
    /*
-    * If there were cascading standby servers connected to us, nudge any
-    * wal sender processes to notice that we've been promoted.
+    * If there were cascading standby servers connected to us, nudge any wal
+    * sender processes to notice that we've been promoted.
     */
    WalSndWakeup();
 
@@ -6151,9 +6157,9 @@ CheckRecoveryConsistency(void)
    }
 
    /*
-    * Have we passed our safe starting point? Note that minRecoveryPoint
-    * is known to be incorrectly set if ControlFile->backupEndRequired,
-    * until the XLOG_BACKUP_RECORD arrives to advise us of the correct
+    * Have we passed our safe starting point? Note that minRecoveryPoint is
+    * known to be incorrectly set if ControlFile->backupEndRequired, until
+    * the XLOG_BACKUP_RECORD arrives to advise us of the correct
     * minRecoveryPoint. All we know prior to that is that we're not
     * consistent yet.
     */
@@ -6770,7 +6776,7 @@ CreateCheckPoint(int flags)
    uint32      freespace;
    XLogSegNo   _logSegNo;
    VirtualTransactionId *vxids;
-   int nvxids;
+   int         nvxids;
 
    /*
     * An end-of-recovery checkpoint is really a shutdown checkpoint, just
@@ -6946,13 +6952,13 @@ CreateCheckPoint(int flags)
    TRACE_POSTGRESQL_CHECKPOINT_START(flags);
 
    /*
-    * In some cases there are groups of actions that must all occur on
-    * one side or the other of a checkpoint record. Before flushing the
+    * In some cases there are groups of actions that must all occur on one
+    * side or the other of a checkpoint record. Before flushing the
     * checkpoint record we must explicitly wait for any backend currently
     * performing those groups of actions.
     *
     * One example is end of transaction, so we must wait for any transactions
-    * that are currently in commit critical sections.  If an xact inserted
+    * that are currently in commit critical sections.  If an xact inserted
     * its commit record into XLOG just before the REDO point, then a crash
     * restart from the REDO point would not replay that record, which means
     * that our flushing had better include the xact's update of pg_clog.  So
@@ -6977,7 +6983,7 @@ CreateCheckPoint(int flags)
    vxids = GetVirtualXIDsDelayingChkpt(&nvxids);
    if (nvxids > 0)
    {
-       uint32  nwaits = 0;
+       uint32      nwaits = 0;
 
        do
        {
@@ -7182,9 +7188,9 @@ CreateCheckPoint(int flags)
 void
 CreateEndOfRecoveryRecord(void)
 {
-   xl_end_of_recovery  xlrec;
-   XLogRecData         rdata;
-   XLogRecPtr          recptr;
+   xl_end_of_recovery xlrec;
+   XLogRecData rdata;
+   XLogRecPtr  recptr;
 
    /* sanity check */
    if (!RecoveryInProgress())
@@ -7211,8 +7217,8 @@ CreateEndOfRecoveryRecord(void)
    XLogFlush(recptr);
 
    /*
-    * Update the control file so that crash recovery can follow
-    * the timeline changes to this point.
+    * Update the control file so that crash recovery can follow the timeline
+    * changes to this point.
     */
    LWLockAcquire(ControlFileLock, LW_EXCLUSIVE);
    ControlFile->time = (pg_time_t) xlrec.end_time;
@@ -7223,7 +7229,7 @@ CreateEndOfRecoveryRecord(void)
 
    END_CRIT_SECTION();
 
-   LocalXLogInsertAllowed = -1;        /* return to "check" state */
+   LocalXLogInsertAllowed = -1;    /* return to "check" state */
 }
 
 /*
@@ -7375,7 +7381,7 @@ CreateRestartPoint(int flags)
    {
        ereport(DEBUG2,
                (errmsg("skipping restartpoint, already performed at %X/%X",
-                       (uint32) (lastCheckPoint.redo >> 32), (uint32) lastCheckPoint.redo)));
+       (uint32) (lastCheckPoint.redo >> 32), (uint32) lastCheckPoint.redo)));
 
        UpdateMinRecoveryPoint(InvalidXLogRecPtr, true);
        if (flags & CHECKPOINT_IS_SHUTDOWN)
@@ -7458,7 +7464,8 @@ CreateRestartPoint(int flags)
        XLogRecPtr  endptr;
 
        /*
-        * Get the current end of xlog replayed or received, whichever is later.
+        * Get the current end of xlog replayed or received, whichever is
+        * later.
         */
        receivePtr = GetWalRcvWriteRecPtr(NULL, NULL);
        replayPtr = GetXLogReplayRecPtr(NULL);
@@ -7468,8 +7475,8 @@ CreateRestartPoint(int flags)
        _logSegNo--;
 
        /*
-        * Update ThisTimeLineID to the timeline we're currently replaying,
-        * so that we install any recycled segments on that timeline.
+        * Update ThisTimeLineID to the timeline we're currently replaying, so
+        * that we install any recycled segments on that timeline.
         *
         * There is no guarantee that the WAL segments will be useful on the
         * current timeline; if recovery proceeds to a new timeline right
@@ -7480,13 +7487,13 @@ CreateRestartPoint(int flags)
         * It's possible or perhaps even likely that we finish recovery while
         * a restartpoint is in progress. That means we may get to this point
         * some minutes afterwards. Setting ThisTimeLineID at that time would
-        * actually set it backwards, so we don't want that to persist; if
-        * we do reset it here, make sure to reset it back afterwards. This
+        * actually set it backwards, so we don't want that to persist; if we
+        * do reset it here, make sure to reset it back afterwards. This
         * doesn't look very clean or principled, but its the best of about
         * five different ways of handling this edge case.
         */
        if (RecoveryInProgress())
-       (void) GetXLogReplayRecPtr(&ThisTimeLineID);
+           (void) GetXLogReplayRecPtr(&ThisTimeLineID);
 
        RemoveOldXlogFiles(_logSegNo, endptr);
 
@@ -7519,7 +7526,7 @@ CreateRestartPoint(int flags)
    xtime = GetLatestXTime();
    ereport((log_checkpoints ? LOG : DEBUG2),
            (errmsg("recovery restart point at %X/%X",
-                   (uint32) (lastCheckPoint.redo >> 32), (uint32) lastCheckPoint.redo),
+        (uint32) (lastCheckPoint.redo >> 32), (uint32) lastCheckPoint.redo),
           xtime ? errdetail("last completed transaction was at log time %s",
                             timestamptz_to_str(xtime)) : 0));
 
@@ -7677,10 +7684,10 @@ XLogRestorePoint(const char *rpName)
 XLogRecPtr
 XLogSaveBufferForHint(Buffer buffer)
 {
-   XLogRecPtr recptr = InvalidXLogRecPtr;
-   XLogRecPtr lsn;
+   XLogRecPtr  recptr = InvalidXLogRecPtr;
+   XLogRecPtr  lsn;
    XLogRecData rdata[2];
-   BkpBlock bkpb;
+   BkpBlock    bkpb;
 
    /*
     * Ensure no checkpoint can change our view of RedoRecPtr.
@@ -7693,8 +7700,8 @@ XLogSaveBufferForHint(Buffer buffer)
    GetRedoRecPtr();
 
    /*
-    * Setup phony rdata element for use within XLogCheckBuffer only.
-    * We reuse and reset rdata for any actual WAL record insert.
+    * Setup phony rdata element for use within XLogCheckBuffer only. We reuse
+    * and reset rdata for any actual WAL record insert.
     */
    rdata[0].buffer = buffer;
    rdata[0].buffer_std = true;
@@ -7704,8 +7711,8 @@ XLogSaveBufferForHint(Buffer buffer)
     */
    if (XLogCheckBuffer(rdata, false, &lsn, &bkpb))
    {
-       char copied_buffer[BLCKSZ];
-       char *origdata = (char *) BufferGetBlock(buffer);
+       char        copied_buffer[BLCKSZ];
+       char       *origdata = (char *) BufferGetBlock(buffer);
 
        /*
         * Copy buffer so we don't have to worry about concurrent hint bit or
@@ -7714,8 +7721,8 @@ XLogSaveBufferForHint(Buffer buffer)
         */
        memcpy(copied_buffer, origdata, bkpb.hole_offset);
        memcpy(copied_buffer + bkpb.hole_offset,
-               origdata + bkpb.hole_offset + bkpb.hole_length,
-               BLCKSZ - bkpb.hole_offset - bkpb.hole_length);
+              origdata + bkpb.hole_offset + bkpb.hole_length,
+              BLCKSZ - bkpb.hole_offset - bkpb.hole_length);
 
        /*
         * Header for backup block.
@@ -7861,25 +7868,24 @@ checkTimeLineSwitch(XLogRecPtr lsn, TimeLineID newTLI, TimeLineID prevTLI)
        ereport(PANIC,
                (errmsg("unexpected prev timeline ID %u (current timeline ID %u) in checkpoint record",
                        prevTLI, ThisTimeLineID)));
+
    /*
-    * The new timeline better be in the list of timelines we expect
-    * to see, according to the timeline history. It should also not
-    * decrease.
+    * The new timeline better be in the list of timelines we expect to see,
+    * according to the timeline history. It should also not decrease.
     */
    if (newTLI < ThisTimeLineID || !tliInHistory(newTLI, expectedTLEs))
        ereport(PANIC,
-               (errmsg("unexpected timeline ID %u (after %u) in checkpoint record",
-                       newTLI, ThisTimeLineID)));
+        (errmsg("unexpected timeline ID %u (after %u) in checkpoint record",
+                newTLI, ThisTimeLineID)));
 
    /*
-    * If we have not yet reached min recovery point, and we're about
-    * to switch to a timeline greater than the timeline of the min
-    * recovery point: trouble. After switching to the new timeline,
-    * we could not possibly visit the min recovery point on the
-    * correct timeline anymore. This can happen if there is a newer
-    * timeline in the archive that branched before the timeline the
-    * min recovery point is on, and you attempt to do PITR to the
-    * new timeline.
+    * If we have not yet reached min recovery point, and we're about to
+    * switch to a timeline greater than the timeline of the min recovery
+    * point: trouble. After switching to the new timeline, we could not
+    * possibly visit the min recovery point on the correct timeline anymore.
+    * This can happen if there is a newer timeline in the archive that
+    * branched before the timeline the min recovery point is on, and you
+    * attempt to do PITR to the new timeline.
     */
    if (!XLogRecPtrIsInvalid(minRecoveryPoint) &&
        lsn < minRecoveryPoint &&
@@ -8101,21 +8107,21 @@ xlog_redo(XLogRecPtr lsn, XLogRecord *record)
    }
    else if (info == XLOG_HINT)
    {
-       char *data;
-       BkpBlock bkpb;
+       char       *data;
+       BkpBlock    bkpb;
 
        /*
-        * Hint bit records contain a backup block stored "inline" in the normal
-        * data since the locking when writing hint records isn't sufficient to
-        * use the normal backup block mechanism, which assumes exclusive lock
-        * on the buffer supplied.
+        * Hint bit records contain a backup block stored "inline" in the
+        * normal data since the locking when writing hint records isn't
+        * sufficient to use the normal backup block mechanism, which assumes
+        * exclusive lock on the buffer supplied.
         *
-        * Since the only change in these backup block are hint bits, there are
-        * no recovery conflicts generated.
+        * Since the only change in these backup block are hint bits, there
+        * are no recovery conflicts generated.
         *
-        * This also means there is no corresponding API call for this,
-        * so an smgr implementation has no need to implement anything.
-        * Which means nothing is needed in md.c etc
+        * This also means there is no corresponding API call for this, so an
+        * smgr implementation has no need to implement anything. Which means
+        * nothing is needed in md.c etc
         */
        data = XLogRecGetData(record);
        memcpy(&bkpb, data, sizeof(BkpBlock));
@@ -8318,7 +8324,7 @@ assign_xlog_sync_method(int new_sync_method, void *extra)
                ereport(PANIC,
                        (errcode_for_file_access(),
                         errmsg("could not fsync log segment %s: %m",
-                               XLogFileNameP(ThisTimeLineID, openLogSegNo))));
+                             XLogFileNameP(ThisTimeLineID, openLogSegNo))));
            if (get_sync_bit(sync_method) != get_sync_bit(new_sync_method))
                XLogFileClose();
        }
@@ -8349,8 +8355,8 @@ issue_xlog_fsync(int fd, XLogSegNo segno)
            if (pg_fsync_writethrough(fd) != 0)
                ereport(PANIC,
                        (errcode_for_file_access(),
-                        errmsg("could not fsync write-through log file %s: %m",
-                               XLogFileNameP(ThisTimeLineID, segno))));
+                     errmsg("could not fsync write-through log file %s: %m",
+                            XLogFileNameP(ThisTimeLineID, segno))));
            break;
 #endif
 #ifdef HAVE_FDATASYNC
@@ -8379,6 +8385,7 @@ char *
 XLogFileNameP(TimeLineID tli, XLogSegNo segno)
 {
    char       *result = palloc(MAXFNAMELEN);
+
    XLogFileName(result, tli, segno);
    return result;
 }
@@ -8630,9 +8637,9 @@ do_pg_start_backup(const char *backupidstr, bool fast, TimeLineID *starttli_p,
                    "%Y-%m-%d %H:%M:%S %Z",
                    pg_localtime(&stamp_time, log_timezone));
        appendStringInfo(&labelfbuf, "START WAL LOCATION: %X/%X (file %s)\n",
-                        (uint32) (startpoint >> 32), (uint32) startpoint, xlogfilename);
+            (uint32) (startpoint >> 32), (uint32) startpoint, xlogfilename);
        appendStringInfo(&labelfbuf, "CHECKPOINT LOCATION: %X/%X\n",
-                        (uint32) (checkpointloc >> 32), (uint32) checkpointloc);
+                    (uint32) (checkpointloc >> 32), (uint32) checkpointloc);
        appendStringInfo(&labelfbuf, "BACKUP METHOD: %s\n",
                         exclusive ? "pg_start_backup" : "streamed");
        appendStringInfo(&labelfbuf, "BACKUP FROM: %s\n",
@@ -8936,10 +8943,10 @@ do_pg_stop_backup(char *labelfile, bool waitforarchive, TimeLineID *stoptli_p)
                    (errcode(ERRCODE_OBJECT_NOT_IN_PREREQUISITE_STATE),
               errmsg("WAL generated with full_page_writes=off was replayed "
                      "during online backup"),
-                errhint("This means that the backup being taken on the standby "
-                        "is corrupt and should not be used. "
+            errhint("This means that the backup being taken on the standby "
+                    "is corrupt and should not be used. "
                 "Enable full_page_writes and run CHECKPOINT on the master, "
-                        "and then try an online backup again.")));
+                    "and then try an online backup again.")));
 
 
        LWLockAcquire(ControlFileLock, LW_SHARED);
@@ -8990,7 +8997,7 @@ do_pg_stop_backup(char *labelfile, bool waitforarchive, TimeLineID *stoptli_p)
                 errmsg("could not create file \"%s\": %m",
                        histfilepath)));
    fprintf(fp, "START WAL LOCATION: %X/%X (file %s)\n",
-           (uint32) (startpoint >> 32), (uint32) startpoint, startxlogfilename);
+       (uint32) (startpoint >> 32), (uint32) startpoint, startxlogfilename);
    fprintf(fp, "STOP WAL LOCATION: %X/%X (file %s)\n",
            (uint32) (stoppoint >> 32), (uint32) stoppoint, stopxlogfilename);
    /* transfer remaining lines from label to history file */
@@ -9366,10 +9373,10 @@ XLogPageRead(XLogReaderState *xlogreader, XLogRecPtr targetPagePtr, int reqLen,
             XLogRecPtr targetRecPtr, char *readBuf, TimeLineID *readTLI)
 {
    XLogPageReadPrivate *private =
-       (XLogPageReadPrivate *) xlogreader->private_data;
+   (XLogPageReadPrivate *) xlogreader->private_data;
    int         emode = private->emode;
    uint32      targetPageOff;
-   XLogSegNo   targetSegNo PG_USED_FOR_ASSERTS_ONLY;
+   XLogSegNo targetSegNo PG_USED_FOR_ASSERTS_ONLY;
 
    XLByteToSeg(targetPagePtr, targetSegNo);
    targetPageOff = targetPagePtr % XLogSegSize;
@@ -9448,24 +9455,24 @@ retry:
    readOff = targetPageOff;
    if (lseek(readFile, (off_t) readOff, SEEK_SET) < 0)
    {
-       char fname[MAXFNAMELEN];
+       char        fname[MAXFNAMELEN];
 
        XLogFileName(fname, curFileTLI, readSegNo);
        ereport(emode_for_corrupt_record(emode, targetPagePtr + reqLen),
                (errcode_for_file_access(),
-        errmsg("could not seek in log segment %s to offset %u: %m",
+                errmsg("could not seek in log segment %s to offset %u: %m",
                        fname, readOff)));
        goto next_record_is_invalid;
    }
 
    if (read(readFile, readBuf, XLOG_BLCKSZ) != XLOG_BLCKSZ)
    {
-       char fname[MAXFNAMELEN];
+       char        fname[MAXFNAMELEN];
 
        XLogFileName(fname, curFileTLI, readSegNo);
        ereport(emode_for_corrupt_record(emode, targetPagePtr + reqLen),
                (errcode_for_file_access(),
-        errmsg("could not read from log segment %s, offset %u: %m",
+                errmsg("could not read from log segment %s, offset %u: %m",
                        fname, readOff)));
        goto next_record_is_invalid;
    }
@@ -9524,12 +9531,12 @@ WaitForWALToBecomeAvailable(XLogRecPtr RecPtr, bool randAccess,
                            bool fetching_ckpt, XLogRecPtr tliRecPtr)
 {
    static pg_time_t last_fail_time = 0;
-   pg_time_t now;
+   pg_time_t   now;
 
    /*-------
     * Standby mode is implemented by a state machine:
     *
-    * 1. Read from archive (XLOG_FROM_ARCHIVE)
+    * 1. Read from archive (XLOG_FROM_ARCHIVE)
     * 2. Read from pg_xlog (XLOG_FROM_PG_XLOG)
     * 3. Check trigger file
     * 4. Read from primary server via walreceiver (XLOG_FROM_STREAM)
@@ -9554,7 +9561,7 @@ WaitForWALToBecomeAvailable(XLogRecPtr RecPtr, bool randAccess,
 
    for (;;)
    {
-       int     oldSource = currentSource;
+       int         oldSource = currentSource;
 
        /*
         * First check if we failed to read from the current source, and
@@ -9571,11 +9578,12 @@ WaitForWALToBecomeAvailable(XLogRecPtr RecPtr, bool randAccess,
                    break;
 
                case XLOG_FROM_PG_XLOG:
+
                    /*
-                    * Check to see if the trigger file exists. Note that we do
-                    * this only after failure, so when you create the trigger
-                    * file, we still finish replaying as much as we can from
-                    * archive and pg_xlog before failover.
+                    * Check to see if the trigger file exists. Note that we
+                    * do this only after failure, so when you create the
+                    * trigger file, we still finish replaying as much as we
+                    * can from archive and pg_xlog before failover.
                     */
                    if (StandbyMode && CheckForStandbyTrigger())
                    {
@@ -9584,15 +9592,15 @@ WaitForWALToBecomeAvailable(XLogRecPtr RecPtr, bool randAccess,
                    }
 
                    /*
-                    * Not in standby mode, and we've now tried the archive and
-                    * pg_xlog.
+                    * Not in standby mode, and we've now tried the archive
+                    * and pg_xlog.
                     */
                    if (!StandbyMode)
                        return false;
 
                    /*
-                    * If primary_conninfo is set, launch walreceiver to try to
-                    * stream the missing WAL.
+                    * If primary_conninfo is set, launch walreceiver to try
+                    * to stream the missing WAL.
                     *
                     * If fetching_ckpt is TRUE, RecPtr points to the initial
                     * checkpoint location. In that case, we use RedoStartLSN
@@ -9602,8 +9610,8 @@ WaitForWALToBecomeAvailable(XLogRecPtr RecPtr, bool randAccess,
                     */
                    if (PrimaryConnInfo)
                    {
-                       XLogRecPtr ptr;
-                       TimeLineID tli;
+                       XLogRecPtr  ptr;
+                       TimeLineID  tli;
 
                        if (fetching_ckpt)
                        {
@@ -9624,28 +9632,32 @@ WaitForWALToBecomeAvailable(XLogRecPtr RecPtr, bool randAccess,
                        RequestXLogStreaming(tli, ptr, PrimaryConnInfo);
                        receivedUpto = 0;
                    }
+
                    /*
-                    * Move to XLOG_FROM_STREAM state in either case. We'll get
-                    * immediate failure if we didn't launch walreceiver, and
-                    * move on to the next state.
+                    * Move to XLOG_FROM_STREAM state in either case. We'll
+                    * get immediate failure if we didn't launch walreceiver,
+                    * and move on to the next state.
                     */
                    currentSource = XLOG_FROM_STREAM;
                    break;
 
                case XLOG_FROM_STREAM:
+
                    /*
-                    * Failure while streaming. Most likely, we got here because
-                    * streaming replication was terminated, or promotion was
-                    * triggered. But we also get here if we find an invalid
-                    * record in the WAL streamed from master, in which case
-                    * something is seriously wrong. There's little chance that
-                    * the problem will just go away, but PANIC is not good for
-                    * availability either, especially in hot standby mode. So,
-                    * we treat that the same as disconnection, and retry from
-                    * archive/pg_xlog again. The WAL in the archive should be
-                    * identical to what was streamed, so it's unlikely that it
-                    * helps, but one can hope...
+                    * Failure while streaming. Most likely, we got here
+                    * because streaming replication was terminated, or
+                    * promotion was triggered. But we also get here if we
+                    * find an invalid record in the WAL streamed from master,
+                    * in which case something is seriously wrong. There's
+                    * little chance that the problem will just go away, but
+                    * PANIC is not good for availability either, especially
+                    * in hot standby mode. So, we treat that the same as
+                    * disconnection, and retry from archive/pg_xlog again.
+                    * The WAL in the archive should be identical to what was
+                    * streamed, so it's unlikely that it helps, but one can
+                    * hope...
                     */
+
                    /*
                     * Before we leave XLOG_FROM_STREAM state, make sure that
                     * walreceiver is not active, so that it won't overwrite
@@ -9668,11 +9680,12 @@ WaitForWALToBecomeAvailable(XLogRecPtr RecPtr, bool randAccess,
                    }
 
                    /*
-                    * XLOG_FROM_STREAM is the last state in our state machine,
-                    * so we've exhausted all the options for obtaining the
-                    * requested WAL. We're going to loop back and retry from
-                    * the archive, but if it hasn't been long since last
-                    * attempt, sleep 5 seconds to avoid busy-waiting.
+                    * XLOG_FROM_STREAM is the last state in our state
+                    * machine, so we've exhausted all the options for
+                    * obtaining the requested WAL. We're going to loop back
+                    * and retry from the archive, but if it hasn't been long
+                    * since last attempt, sleep 5 seconds to avoid
+                    * busy-waiting.
                     */
                    now = (pg_time_t) time(NULL);
                    if ((now - last_fail_time) < 5)
@@ -9691,9 +9704,9 @@ WaitForWALToBecomeAvailable(XLogRecPtr RecPtr, bool randAccess,
        else if (currentSource == XLOG_FROM_PG_XLOG)
        {
            /*
-            * We just successfully read a file in pg_xlog. We prefer files
-            * in the archive over ones in pg_xlog, so try the next file
-            * again from the archive first.
+            * We just successfully read a file in pg_xlog. We prefer files in
+            * the archive over ones in pg_xlog, so try the next file again
+            * from the archive first.
             */
            if (InArchiveRecovery)
                currentSource = XLOG_FROM_ARCHIVE;
@@ -9739,107 +9752,110 @@ WaitForWALToBecomeAvailable(XLogRecPtr RecPtr, bool randAccess,
                break;
 
            case XLOG_FROM_STREAM:
-           {
-               bool        havedata;
-
-               /*
-                * Check if WAL receiver is still active.
-                */
-               if (!WalRcvStreaming())
-               {
-                   lastSourceFailed = true;
-                   break;
-               }
-
-               /*
-                * Walreceiver is active, so see if new data has arrived.
-                *
-                * We only advance XLogReceiptTime when we obtain fresh WAL
-                * from walreceiver and observe that we had already processed
-                * everything before the most recent "chunk" that it flushed to
-                * disk.  In steady state where we are keeping up with the
-                * incoming data, XLogReceiptTime will be updated on each cycle.
-                * When we are behind, XLogReceiptTime will not advance, so the
-                * grace time allotted to conflicting queries will decrease.
-                */
-               if (RecPtr < receivedUpto)
-                   havedata = true;
-               else
                {
-                   XLogRecPtr  latestChunkStart;
+                   bool        havedata;
 
-                   receivedUpto = GetWalRcvWriteRecPtr(&latestChunkStart, &receiveTLI);
-                   if (RecPtr < receivedUpto && receiveTLI == curFileTLI)
+                   /*
+                    * Check if WAL receiver is still active.
+                    */
+                   if (!WalRcvStreaming())
                    {
+                       lastSourceFailed = true;
+                       break;
+                   }
+
+                   /*
+                    * Walreceiver is active, so see if new data has arrived.
+                    *
+                    * We only advance XLogReceiptTime when we obtain fresh
+                    * WAL from walreceiver and observe that we had already
+                    * processed everything before the most recent "chunk"
+                    * that it flushed to disk.  In steady state where we are
+                    * keeping up with the incoming data, XLogReceiptTime will
+                    * be updated on each cycle. When we are behind,
+                    * XLogReceiptTime will not advance, so the grace time
+                    * allotted to conflicting queries will decrease.
+                    */
+                   if (RecPtr < receivedUpto)
                        havedata = true;
-                       if (latestChunkStart <= RecPtr)
+                   else
+                   {
+                       XLogRecPtr  latestChunkStart;
+
+                       receivedUpto = GetWalRcvWriteRecPtr(&latestChunkStart, &receiveTLI);
+                       if (RecPtr < receivedUpto && receiveTLI == curFileTLI)
                        {
-                           XLogReceiptTime = GetCurrentTimestamp();
-                           SetCurrentChunkStartTime(XLogReceiptTime);
+                           havedata = true;
+                           if (latestChunkStart <= RecPtr)
+                           {
+                               XLogReceiptTime = GetCurrentTimestamp();
+                               SetCurrentChunkStartTime(XLogReceiptTime);
+                           }
                        }
+                       else
+                           havedata = false;
                    }
-                   else
-                       havedata = false;
-               }
-               if (havedata)
-               {
-                   /*
-                    * Great, streamed far enough.  Open the file if it's not
-                    * open already.  Also read the timeline history file if
-                    * we haven't initialized timeline history yet; it should
-                    * be streamed over and present in pg_xlog by now.  Use
-                    * XLOG_FROM_STREAM so that source info is set correctly
-                    * and XLogReceiptTime isn't changed.
-                    */
-                   if (readFile < 0)
+                   if (havedata)
                    {
-                       if (!expectedTLEs)
-                           expectedTLEs = readTimeLineHistory(receiveTLI);
-                       readFile = XLogFileRead(readSegNo, PANIC,
-                                               receiveTLI,
-                                               XLOG_FROM_STREAM, false);
-                       Assert(readFile >= 0);
+                       /*
+                        * Great, streamed far enough.  Open the file if it's
+                        * not open already.  Also read the timeline history
+                        * file if we haven't initialized timeline history
+                        * yet; it should be streamed over and present in
+                        * pg_xlog by now.  Use XLOG_FROM_STREAM so that
+                        * source info is set correctly and XLogReceiptTime
+                        * isn't changed.
+                        */
+                       if (readFile < 0)
+                       {
+                           if (!expectedTLEs)
+                               expectedTLEs = readTimeLineHistory(receiveTLI);
+                           readFile = XLogFileRead(readSegNo, PANIC,
+                                                   receiveTLI,
+                                                   XLOG_FROM_STREAM, false);
+                           Assert(readFile >= 0);
+                       }
+                       else
+                       {
+                           /* just make sure source info is correct... */
+                           readSource = XLOG_FROM_STREAM;
+                           XLogReceiptSource = XLOG_FROM_STREAM;
+                           return true;
+                       }
+                       break;
                    }
-                   else
+
+                   /*
+                    * Data not here yet. Check for trigger, then wait for
+                    * walreceiver to wake us up when new WAL arrives.
+                    */
+                   if (CheckForStandbyTrigger())
                    {
-                       /* just make sure source info is correct... */
-                       readSource = XLOG_FROM_STREAM;
-                       XLogReceiptSource = XLOG_FROM_STREAM;
-                       return true;
+                       /*
+                        * Note that we don't "return false" immediately here.
+                        * After being triggered, we still want to replay all
+                        * the WAL that was already streamed. It's in pg_xlog
+                        * now, so we just treat this as a failure, and the
+                        * state machine will move on to replay the streamed
+                        * WAL from pg_xlog, and then recheck the trigger and
+                        * exit replay.
+                        */
+                       lastSourceFailed = true;
+                       break;
                    }
-                   break;
-               }
 
-               /*
-                * Data not here yet. Check for trigger, then wait for
-                * walreceiver to wake us up when new WAL arrives.
-                */
-               if (CheckForStandbyTrigger())
-               {
                    /*
-                    * Note that we don't "return false" immediately here.
-                    * After being triggered, we still want to replay all the
-                    * WAL that was already streamed. It's in pg_xlog now, so
-                    * we just treat this as a failure, and the state machine
-                    * will move on to replay the streamed WAL from pg_xlog,
-                    * and then recheck the trigger and exit replay.
+                    * Wait for more WAL to arrive. Time out after 5 seconds,
+                    * like when polling the archive, to react to a trigger
+                    * file promptly.
                     */
-                   lastSourceFailed = true;
+                   WaitLatch(&XLogCtl->recoveryWakeupLatch,
+                             WL_LATCH_SET | WL_TIMEOUT,
+                             5000L);
+                   ResetLatch(&XLogCtl->recoveryWakeupLatch);
                    break;
                }
 
-               /*
-                * Wait for more WAL to arrive. Time out after 5 seconds, like
-                * when polling the archive, to react to a trigger file
-                * promptly.
-                */
-               WaitLatch(&XLogCtl->recoveryWakeupLatch,
-                         WL_LATCH_SET | WL_TIMEOUT,
-                         5000L);
-               ResetLatch(&XLogCtl->recoveryWakeupLatch);
-               break;
-           }
-
            default:
                elog(ERROR, "unexpected WAL source %d", currentSource);
        }
@@ -9903,11 +9919,10 @@ CheckForStandbyTrigger(void)
    if (IsPromoteTriggered())
    {
        /*
-        * In 9.1 and 9.2 the postmaster unlinked the promote file
-        * inside the signal handler. We now leave the file in place
-        * and let the Startup process do the unlink. This allows
-        * Startup to know whether we're doing fast or normal
-        * promotion. Fast promotion takes precedence.
+        * In 9.1 and 9.2 the postmaster unlinked the promote file inside the
+        * signal handler. We now leave the file in place and let the Startup
+        * process do the unlink. This allows Startup to know whether we're
+        * doing fast or normal promotion. Fast promotion takes precedence.
         */
        if (stat(FAST_PROMOTE_SIGNAL_FILE, &stat_buf) == 0)
        {
index 0c178c55c87247f651373bdc80a0f739a6f3c128..342975c7b642fe91f58924f5820b15812873199f 100644 (file)
@@ -87,9 +87,9 @@ RestoreArchivedFile(char *path, const char *xlogfname,
     * of log segments that weren't yet transferred to the archive.
     *
     * Notice that we don't actually overwrite any files when we copy back
-    * from archive because the restore_command may inadvertently
-    * restore inappropriate xlogs, or they may be corrupt, so we may wish to
-    * fallback to the segments remaining in current XLOGDIR later. The
+    * from archive because the restore_command may inadvertently restore
+    * inappropriate xlogs, or they may be corrupt, so we may wish to fallback
+    * to the segments remaining in current XLOGDIR later. The
     * copy-from-archive filename is always the same, ensuring that we don't
     * run out of disk space on long recoveries.
     */
@@ -433,19 +433,20 @@ KeepFileRestoredFromArchive(char *path, char *xlogfname)
 
    if (stat(xlogfpath, &statbuf) == 0)
    {
-       char oldpath[MAXPGPATH];
+       char        oldpath[MAXPGPATH];
+
 #ifdef WIN32
        static unsigned int deletedcounter = 1;
+
        /*
-        * On Windows, if another process (e.g a walsender process) holds
-        * the file open in FILE_SHARE_DELETE mode, unlink will succeed,
-        * but the file will still show up in directory listing until the
-        * last handle is closed, and we cannot rename the new file in its
-        * place until that. To avoid that problem, rename the old file to
-        * a temporary name first. Use a counter to create a unique
-        * filename, because the same file might be restored from the
-        * archive multiple times, and a walsender could still be holding
-        * onto an old deleted version of it.
+        * On Windows, if another process (e.g a walsender process) holds the
+        * file open in FILE_SHARE_DELETE mode, unlink will succeed, but the
+        * file will still show up in directory listing until the last handle
+        * is closed, and we cannot rename the new file in its place until
+        * that. To avoid that problem, rename the old file to a temporary
+        * name first. Use a counter to create a unique filename, because the
+        * same file might be restored from the archive multiple times, and a
+        * walsender could still be holding onto an old deleted version of it.
         */
        snprintf(oldpath, MAXPGPATH, "%s.deleted%u",
                 xlogfpath, deletedcounter++);
@@ -474,17 +475,17 @@ KeepFileRestoredFromArchive(char *path, char *xlogfname)
                        path, xlogfpath)));
 
    /*
-    * Create .done file forcibly to prevent the restored segment from
-    * being archived again later.
+    * Create .done file forcibly to prevent the restored segment from being
+    * archived again later.
     */
    XLogArchiveForceDone(xlogfname);
 
    /*
-    * If the existing file was replaced, since walsenders might have it
-    * open, request them to reload a currently-open segment. This is only
-    * required for WAL segments, walsenders don't hold other files open, but
-    * there's no harm in doing this too often, and we don't know what kind
-    * of a file we're dealing with here.
+    * If the existing file was replaced, since walsenders might have it open,
+    * request them to reload a currently-open segment. This is only required
+    * for WAL segments, walsenders don't hold other files open, but there's
+    * no harm in doing this too often, and we don't know what kind of a file
+    * we're dealing with here.
     */
    if (reload)
        WalSndRqstFileReload();
index b6bb6773d6b433452dffd0b083fc5d1fddeb879a..b7950f77a6587dcfda2e58ff2e455afbdb261b18 100644 (file)
@@ -545,8 +545,8 @@ pg_xlog_location_diff(PG_FUNCTION_ARGS)
     * XXX: this won't handle values higher than 2^63 correctly.
     */
    result = DatumGetNumeric(DirectFunctionCall2(numeric_sub,
-      DirectFunctionCall1(int8_numeric, Int64GetDatum((int64) bytes1)),
-      DirectFunctionCall1(int8_numeric, Int64GetDatum((int64) bytes2))));
+           DirectFunctionCall1(int8_numeric, Int64GetDatum((int64) bytes1)),
+         DirectFunctionCall1(int8_numeric, Int64GetDatum((int64) bytes2))));
 
    PG_RETURN_NUMERIC(result);
 }
@@ -584,7 +584,7 @@ pg_backup_start_time(PG_FUNCTION_ARGS)
            ereport(ERROR,
                    (errcode_for_file_access(),
                     errmsg("could not read file \"%s\": %m",
-                       BACKUP_LABEL_FILE)));
+                           BACKUP_LABEL_FILE)));
        PG_RETURN_NULL();
    }
 
@@ -602,13 +602,13 @@ pg_backup_start_time(PG_FUNCTION_ARGS)
    if (ferror(lfp))
        ereport(ERROR,
                (errcode_for_file_access(),
-                errmsg("could not read file \"%s\": %m", BACKUP_LABEL_FILE)));
+              errmsg("could not read file \"%s\": %m", BACKUP_LABEL_FILE)));
 
    /* Close the backup label file. */
    if (FreeFile(lfp))
        ereport(ERROR,
                (errcode_for_file_access(),
-                errmsg("could not close file \"%s\": %m", BACKUP_LABEL_FILE)));
+             errmsg("could not close file \"%s\": %m", BACKUP_LABEL_FILE)));
 
    if (strlen(backup_start_time) == 0)
        ereport(ERROR,
index a5e2b50fe6bbe47338745d08297bf79a733b6c52..fc6ff806440b4a7d606bc1c71247c17bc7a02db6 100644 (file)
@@ -221,9 +221,9 @@ XLogReadRecord(XLogReaderState *state, XLogRecPtr RecPtr, char **errormsg)
    targetRecOff = RecPtr % XLOG_BLCKSZ;
 
    /*
-    * Read the page containing the record into state->readBuf. Request
-    * enough byte to cover the whole record header, or at least the part of
-    * it that fits on the same page.
+    * Read the page containing the record into state->readBuf. Request enough
+    * byte to cover the whole record header, or at least the part of it that
+    * fits on the same page.
     */
    readOff = ReadPageInternal(state,
                               targetPagePtr,
index 9e401ef7a30a0c43f7c11caf249d2dd156ccee86..8905596c0b1a0f10e9f5c160a7a33ecf8601e3e5 100644 (file)
@@ -49,7 +49,7 @@
 extern int optind;
 extern char *optarg;
 
-uint32 bootstrap_data_checksum_version = 0;  /* No checksum */
+uint32     bootstrap_data_checksum_version = 0;        /* No checksum */
 
 
 #define ALLOC(t, c)        ((t *) calloc((unsigned)(c), sizeof(t)))
@@ -67,7 +67,7 @@ static void cleanup(void);
  * ----------------
  */
 
-AuxProcType    MyAuxProcType = NotAnAuxProcess;    /* declared in miscadmin.h */
+AuxProcType MyAuxProcType = NotAnAuxProcess;   /* declared in miscadmin.h */
 
 Relation   boot_reldesc;       /* current relation descriptor */
 
@@ -389,7 +389,7 @@ AuxiliaryProcessMain(int argc, char *argv[])
        /*
         * Assign the ProcSignalSlot for an auxiliary process.  Since it
         * doesn't have a BackendId, the slot is statically allocated based on
-        * the auxiliary process type (MyAuxProcType).  Backends use slots
+        * the auxiliary process type (MyAuxProcType).  Backends use slots
         * indexed in the range from 1 to MaxBackends (inclusive), so we use
         * MaxBackends + AuxProcType + 1 as the index of the slot for an
         * auxiliary process.
index 976f2d204cd2cafcf3a960dabb2d37647472f447..cb9b75aa0923d0db33e0077cf319b832d31e42e6 100644 (file)
@@ -3419,7 +3419,7 @@ aclcheck_error_col(AclResult aclerr, AclObjectKind objectkind,
 void
 aclcheck_error_type(AclResult aclerr, Oid typeOid)
 {
-   Oid element_type = get_element_type(typeOid);
+   Oid         element_type = get_element_type(typeOid);
 
    aclcheck_error(aclerr, ACL_KIND_TYPE, format_type_be(element_type ? element_type : typeOid));
 }
index 967182b541bc98d2a8ec81e83a89c7e6014499cd..41a5da0bd239c326c29d79d696856bfcb61380d6 100644 (file)
@@ -335,7 +335,7 @@ GetNewOid(Relation relation)
  * This is exported separately because there are cases where we want to use
  * an index that will not be recognized by RelationGetOidIndex: TOAST tables
  * have indexes that are usable, but have multiple columns and are on
- * ordinary columns rather than a true OID column.  This code will work
+ * ordinary columns rather than a true OID column. This code will work
  * anyway, so long as the OID is the index's first column.  The caller must
  * pass in the actual heap attnum of the OID column, however.
  *
index 6b7a51947c9ef381d5544c4d90184c90227279e1..69171f8311c5e2d4f4c535eae4223a17fbb9778c 100644 (file)
@@ -198,7 +198,7 @@ static void
 deleteObjectsInList(ObjectAddresses *targetObjects, Relation *depRel,
                    int flags)
 {
-   int     i;
+   int         i;
 
    /*
     * Keep track of objects for event triggers, if necessary.
index 24a8474cb51b212434836eea45f57d13c1492d70..7622a9655eac76612ae05b48d1eb69e49f3d6454 100644 (file)
@@ -98,7 +98,7 @@ static void StoreRelCheck(Relation rel, char *ccname, Node *expr,
              bool is_validated, bool is_local, int inhcount,
              bool is_no_inherit, bool is_internal);
 static void StoreConstraints(Relation rel, List *cooked_constraints,
-                            bool is_internal);
+                bool is_internal);
 static bool MergeWithExistingConstraint(Relation rel, char *ccname, Node *expr,
                            bool allow_merge, bool is_local,
                            bool is_no_inherit);
@@ -870,6 +870,7 @@ AddNewRelationTuple(Relation pg_class_desc,
         * that will do.
         */
        new_rel_reltup->relfrozenxid = RecentXmin;
+
        /*
         * Similarly, initialize the minimum Multixact to the first value that
         * could possibly be stored in tuples in the table.  Running
@@ -1915,10 +1916,10 @@ StoreAttrDefault(Relation rel, AttrNumber attnum,
    /*
     * Post creation hook for attribute defaults.
     *
-    * XXX. ALTER TABLE ALTER COLUMN SET/DROP DEFAULT is implemented
-    * with a couple of deletion/creation of the attribute's default entry,
-    * so the callee should check existence of an older version of this
-    * entry if it needs to distinguish.
+    * XXX. ALTER TABLE ALTER COLUMN SET/DROP DEFAULT is implemented with a
+    * couple of deletion/creation of the attribute's default entry, so the
+    * callee should check existence of an older version of this entry if it
+    * needs to distinguish.
     */
    InvokeObjectPostCreateHookArg(AttrDefaultRelationId,
                                  RelationGetRelid(rel), attnum, is_internal);
@@ -2018,7 +2019,7 @@ StoreRelCheck(Relation rel, char *ccname, Node *expr,
                          is_local,     /* conislocal */
                          inhcount,     /* coninhcount */
                          is_no_inherit,        /* connoinherit */
-                         is_internal); /* internally constructed? */
+                         is_internal); /* internally constructed? */
 
    pfree(ccbin);
    pfree(ccsrc);
index f48c0bcb31f27c4a2b05764a080d35a2bfd7cbbd..23943ff9ce2a9de541a8c86083014695c2180593 100644 (file)
@@ -293,9 +293,10 @@ RangeVarGetRelidExtended(const RangeVar *relation, LOCKMODE lockmode,
                    Oid         namespaceId;
 
                    namespaceId = LookupExplicitNamespace(relation->schemaname, missing_ok);
+
                    /*
-                    *  For missing_ok, allow a non-existant schema name to
-                    *  return InvalidOid.
+                    * For missing_ok, allow a non-existant schema name to
+                    * return InvalidOid.
                     */
                    if (namespaceId != myTempNamespace)
                        ereport(ERROR,
@@ -2701,7 +2702,7 @@ LookupExplicitNamespace(const char *nspname, bool missing_ok)
    namespaceId = get_namespace_oid(nspname, missing_ok);
    if (missing_ok && !OidIsValid(namespaceId))
        return InvalidOid;
-   
+
    aclresult = pg_namespace_aclcheck(namespaceId, GetUserId(), ACL_USAGE);
    if (aclresult != ACLCHECK_OK)
        aclcheck_error(aclresult, ACL_KIND_NAMESPACE,
index 87158e34e2669f560cd1ed31999fb6c19c41e509..924b1a1520c75a09e9fe98cc48eab388008b1438 100644 (file)
@@ -29,7 +29,7 @@ void
 RunObjectPostCreateHook(Oid classId, Oid objectId, int subId,
                        bool is_internal)
 {
-   ObjectAccessPostCreate  pc_arg;
+   ObjectAccessPostCreate pc_arg;
 
    /* caller should check, but just in case... */
    Assert(object_access_hook != NULL);
@@ -37,9 +37,9 @@ RunObjectPostCreateHook(Oid classId, Oid objectId, int subId,
    memset(&pc_arg, 0, sizeof(ObjectAccessPostCreate));
    pc_arg.is_internal = is_internal;
 
-   (*object_access_hook)(OAT_POST_CREATE,
-                         classId, objectId, subId,
-                         (void *) &pc_arg);
+   (*object_access_hook) (OAT_POST_CREATE,
+                          classId, objectId, subId,
+                          (void *) &pc_arg);
 }
 
 /*
@@ -51,7 +51,7 @@ void
 RunObjectDropHook(Oid classId, Oid objectId, int subId,
                  int dropflags)
 {
-   ObjectAccessDrop    drop_arg;
+   ObjectAccessDrop drop_arg;
 
    /* caller should check, but just in case... */
    Assert(object_access_hook != NULL);
@@ -59,9 +59,9 @@ RunObjectDropHook(Oid classId, Oid objectId, int subId,
    memset(&drop_arg, 0, sizeof(ObjectAccessDrop));
    drop_arg.dropflags = dropflags;
 
-   (*object_access_hook)(OAT_DROP,
-                         classId, objectId, subId,
-                         (void *) &drop_arg);
+   (*object_access_hook) (OAT_DROP,
+                          classId, objectId, subId,
+                          (void *) &drop_arg);
 }
 
 /*
@@ -73,7 +73,7 @@ void
 RunObjectPostAlterHook(Oid classId, Oid objectId, int subId,
                       Oid auxiliaryId, bool is_internal)
 {
-   ObjectAccessPostAlter   pa_arg;
+   ObjectAccessPostAlter pa_arg;
 
    /* caller should check, but just in case... */
    Assert(object_access_hook != NULL);
@@ -82,9 +82,9 @@ RunObjectPostAlterHook(Oid classId, Oid objectId, int subId,
    pa_arg.auxiliary_id = auxiliaryId;
    pa_arg.is_internal = is_internal;
 
-   (*object_access_hook)(OAT_POST_ALTER,
-                         classId, objectId, subId,
-                         (void *) &pa_arg);
+   (*object_access_hook) (OAT_POST_ALTER,
+                          classId, objectId, subId,
+                          (void *) &pa_arg);
 }
 
 /*
@@ -95,7 +95,7 @@ RunObjectPostAlterHook(Oid classId, Oid objectId, int subId,
 bool
 RunNamespaceSearchHook(Oid objectId, bool ereport_on_violation)
 {
-   ObjectAccessNamespaceSearch ns_arg;
+   ObjectAccessNamespaceSearch ns_arg;
 
    /* caller should check, but just in case... */
    Assert(object_access_hook != NULL);
@@ -104,9 +104,9 @@ RunNamespaceSearchHook(Oid objectId, bool ereport_on_violation)
    ns_arg.ereport_on_violation = ereport_on_violation;
    ns_arg.result = true;
 
-   (*object_access_hook)(OAT_NAMESPACE_SEARCH,
-                         NamespaceRelationId, objectId, 0,
-                         (void *) &ns_arg);
+   (*object_access_hook) (OAT_NAMESPACE_SEARCH,
+                          NamespaceRelationId, objectId, 0,
+                          (void *) &ns_arg);
 
    return ns_arg.result;
 }
@@ -122,7 +122,7 @@ RunFunctionExecuteHook(Oid objectId)
    /* caller should check, but just in case... */
    Assert(object_access_hook != NULL);
 
-   (*object_access_hook)(OAT_FUNCTION_EXECUTE,
-                         ProcedureRelationId, objectId, 0,
-                         NULL);
+   (*object_access_hook) (OAT_FUNCTION_EXECUTE,
+                          ProcedureRelationId, objectId, 0,
+                          NULL);
 }
index 48ef6bf0a490530f1bcbe5670129f5bce4d6aa89..215eaf53e697d9169cc09159c4a64e03da49e049 100644 (file)
@@ -94,10 +94,11 @@ typedef struct
    AttrNumber  attnum_owner;   /* attnum of owner field */
    AttrNumber  attnum_acl;     /* attnum of acl field */
    AclObjectKind acl_kind;     /* ACL_KIND_* of this object type */
-   bool        is_nsp_name_unique; /* can the nsp/name combination (or name
-                                    * alone, if there's no namespace) be
-                                    * considered an unique identifier for an
-                                    * object of this class? */
+   bool        is_nsp_name_unique;     /* can the nsp/name combination (or
+                                        * name alone, if there's no
+                                        * namespace) be considered an unique
+                                        * identifier for an object of this
+                                        * class? */
 } ObjectPropertyType;
 
 static ObjectPropertyType ObjectProperty[] =
@@ -1443,7 +1444,7 @@ get_object_property_data(Oid class_id)
    ereport(ERROR,
            (errmsg_internal("unrecognized class id: %u", class_id)));
 
-   return NULL; /* keep MSC compiler happy */
+   return NULL;                /* keep MSC compiler happy */
 }
 
 /*
@@ -1463,14 +1464,14 @@ get_catalog_object_by_oid(Relation catalog, Oid objectId)
    if (oidCacheId > 0)
    {
        tuple = SearchSysCacheCopy1(oidCacheId, ObjectIdGetDatum(objectId));
-       if (!HeapTupleIsValid(tuple))  /* should not happen */
+       if (!HeapTupleIsValid(tuple))   /* should not happen */
            return NULL;
    }
    else
    {
        Oid         oidIndexId = get_object_oid_index(classId);
-       SysScanDesc scan;
-       ScanKeyData skey;
+       SysScanDesc scan;
+       ScanKeyData skey;
 
        Assert(OidIsValid(oidIndexId));
 
@@ -2127,7 +2128,7 @@ getObjectDescription(const ObjectAddress *object)
                break;
            }
 
-        case OCLASS_EVENT_TRIGGER:
+       case OCLASS_EVENT_TRIGGER:
            {
                HeapTuple   tup;
 
@@ -2137,7 +2138,7 @@ getObjectDescription(const ObjectAddress *object)
                    elog(ERROR, "cache lookup failed for event trigger %u",
                         object->objectId);
                appendStringInfo(&buffer, _("event trigger %s"),
-                    NameStr(((Form_pg_event_trigger) GETSTRUCT(tup))->evtname));
+                NameStr(((Form_pg_event_trigger) GETSTRUCT(tup))->evtname));
                ReleaseSysCache(tup);
                break;
            }
@@ -2355,22 +2356,22 @@ pg_identify_object(PG_FUNCTION_ARGS)
                                          RelationGetDescr(catalog), &isnull);
                if (isnull)
                    elog(ERROR, "invalid null namespace in object %u/%u/%d",
-                        address.classId, address.objectId, address.objectSubId);
+                    address.classId, address.objectId, address.objectSubId);
            }
 
            /*
-            * We only return the object name if it can be used (together
-            * with the schema name, if any) as an unique identifier.
+            * We only return the object name if it can be used (together with
+            * the schema name, if any) as an unique identifier.
             */
            if (get_object_namensp_unique(address.classId))
            {
                nameAttnum = get_object_attnum_name(address.classId);
                if (nameAttnum != InvalidAttrNumber)
                {
-                   Datum   nameDatum;
+                   Datum       nameDatum;
 
                    nameDatum = heap_getattr(objtup, nameAttnum,
-                                            RelationGetDescr(catalog), &isnull);
+                                        RelationGetDescr(catalog), &isnull);
                    if (isnull)
                        elog(ERROR, "invalid null name in object %u/%u/%d",
                             address.classId, address.objectId, address.objectSubId);
@@ -2389,7 +2390,7 @@ pg_identify_object(PG_FUNCTION_ARGS)
    /* schema name */
    if (OidIsValid(schema_oid))
    {
-       const char  *schema = quote_identifier(get_namespace_name(schema_oid));
+       const char *schema = quote_identifier(get_namespace_name(schema_oid));
 
        values[1] = CStringGetTextDatum(schema);
        nulls[1] = false;
@@ -2622,7 +2623,7 @@ getConstraintTypeDescription(StringInfo buffer, Oid constroid)
 {
    Relation    constrRel;
    HeapTuple   constrTup;
-   Form_pg_constraint  constrForm;
+   Form_pg_constraint constrForm;
 
    constrRel = heap_open(ConstraintRelationId, AccessShareLock);
    constrTup = get_catalog_object_by_oid(constrRel, constroid);
@@ -2651,7 +2652,7 @@ getProcedureTypeDescription(StringInfo buffer, Oid procid)
    Form_pg_proc procForm;
 
    procTup = SearchSysCache1(PROCOID,
-                            ObjectIdGetDatum(procid));
+                             ObjectIdGetDatum(procid));
    if (!HeapTupleIsValid(procTup))
        elog(ERROR, "cache lookup failed for procedure %u", procid);
    procForm = (Form_pg_proc) GETSTRUCT(procTup);
@@ -2683,7 +2684,7 @@ getObjectIdentity(const ObjectAddress *object)
            getRelationIdentity(&buffer, object->objectId);
            if (object->objectSubId != 0)
            {
-               char   *attr;
+               char       *attr;
 
                attr = get_relid_attribute_name(object->objectId,
                                                object->objectSubId);
@@ -2718,8 +2719,8 @@ getObjectIdentity(const ObjectAddress *object)
                castForm = (Form_pg_cast) GETSTRUCT(tup);
 
                appendStringInfo(&buffer, "(%s AS %s)",
-                                format_type_be_qualified(castForm->castsource),
-                                format_type_be_qualified(castForm->casttarget));
+                             format_type_be_qualified(castForm->castsource),
+                            format_type_be_qualified(castForm->casttarget));
 
                heap_close(castRel, AccessShareLock);
                break;
@@ -2729,7 +2730,7 @@ getObjectIdentity(const ObjectAddress *object)
            {
                HeapTuple   collTup;
                Form_pg_collation coll;
-               char   *schema;
+               char       *schema;
 
                collTup = SearchSysCache1(COLLOID,
                                          ObjectIdGetDatum(object->objectId));
@@ -2740,7 +2741,7 @@ getObjectIdentity(const ObjectAddress *object)
                schema = get_namespace_name(coll->collnamespace);
                appendStringInfoString(&buffer,
                                       quote_qualified_identifier(schema,
-                                                                 NameStr(coll->collname)));
+                                                  NameStr(coll->collname)));
                ReleaseSysCache(collTup);
                break;
            }
@@ -2765,7 +2766,7 @@ getObjectIdentity(const ObjectAddress *object)
                }
                else
                {
-                   ObjectAddress   domain;
+                   ObjectAddress domain;
 
                    domain.classId = TypeRelationId;
                    domain.objectId = con->contypid;
@@ -2849,7 +2850,7 @@ getObjectIdentity(const ObjectAddress *object)
                         object->objectId);
                langForm = (Form_pg_language) GETSTRUCT(langTup);
                appendStringInfo(&buffer, "%s",
-                                quote_identifier(NameStr(langForm->lanname)));
+                              quote_identifier(NameStr(langForm->lanname)));
                ReleaseSysCache(langTup);
                break;
            }
@@ -2889,7 +2890,7 @@ getObjectIdentity(const ObjectAddress *object)
                appendStringInfo(&buffer,
                                 "%s",
                                 quote_qualified_identifier(schema,
-                                                           NameStr(opcForm->opcname)));
+                                                NameStr(opcForm->opcname)));
                appendStringInfo(&buffer, " for %s",
                                 quote_identifier(NameStr(amForm->amname)));
 
@@ -2935,8 +2936,8 @@ getObjectIdentity(const ObjectAddress *object)
 
                appendStringInfo(&buffer, "operator %d (%s, %s) of %s",
                                 amopForm->amopstrategy,
-                                format_type_be_qualified(amopForm->amoplefttype),
-                                format_type_be_qualified(amopForm->amoprighttype),
+                           format_type_be_qualified(amopForm->amoplefttype),
+                          format_type_be_qualified(amopForm->amoprighttype),
                                 opfam.data);
 
                pfree(opfam.data);
@@ -2979,8 +2980,8 @@ getObjectIdentity(const ObjectAddress *object)
 
                appendStringInfo(&buffer, "function %d (%s, %s) of %s",
                                 amprocForm->amprocnum,
-                                format_type_be_qualified(amprocForm->amproclefttype),
-                                format_type_be_qualified(amprocForm->amprocrighttype),
+                       format_type_be_qualified(amprocForm->amproclefttype),
+                      format_type_be_qualified(amprocForm->amprocrighttype),
                                 opfam.data);
 
                pfree(opfam.data);
@@ -3054,7 +3055,7 @@ getObjectIdentity(const ObjectAddress *object)
        case OCLASS_TSPARSER:
            {
                HeapTuple   tup;
-               Form_pg_ts_parser   formParser;
+               Form_pg_ts_parser formParser;
 
                tup = SearchSysCache1(TSPARSEROID,
                                      ObjectIdGetDatum(object->objectId));
@@ -3063,7 +3064,7 @@ getObjectIdentity(const ObjectAddress *object)
                         object->objectId);
                formParser = (Form_pg_ts_parser) GETSTRUCT(tup);
                appendStringInfo(&buffer, "%s",
-                                quote_identifier(NameStr(formParser->prsname)));
+                            quote_identifier(NameStr(formParser->prsname)));
                ReleaseSysCache(tup);
                break;
            }
@@ -3071,7 +3072,7 @@ getObjectIdentity(const ObjectAddress *object)
        case OCLASS_TSDICT:
            {
                HeapTuple   tup;
-               Form_pg_ts_dict     formDict;
+               Form_pg_ts_dict formDict;
 
                tup = SearchSysCache1(TSDICTOID,
                                      ObjectIdGetDatum(object->objectId));
@@ -3080,7 +3081,7 @@ getObjectIdentity(const ObjectAddress *object)
                         object->objectId);
                formDict = (Form_pg_ts_dict) GETSTRUCT(tup);
                appendStringInfo(&buffer, "%s",
-                                quote_identifier(NameStr(formDict->dictname)));
+                             quote_identifier(NameStr(formDict->dictname)));
                ReleaseSysCache(tup);
                break;
            }
@@ -3097,7 +3098,7 @@ getObjectIdentity(const ObjectAddress *object)
                         object->objectId);
                formTmpl = (Form_pg_ts_template) GETSTRUCT(tup);
                appendStringInfo(&buffer, "%s",
-                                quote_identifier(NameStr(formTmpl->tmplname)));
+                             quote_identifier(NameStr(formTmpl->tmplname)));
                ReleaseSysCache(tup);
                break;
            }
@@ -3121,7 +3122,7 @@ getObjectIdentity(const ObjectAddress *object)
 
        case OCLASS_ROLE:
            {
-               char   *username;
+               char       *username;
 
                username = GetUserNameFromId(object->objectId);
                appendStringInfo(&buffer, "%s",
@@ -3229,11 +3230,11 @@ getObjectIdentity(const ObjectAddress *object)
 
                appendStringInfo(&buffer,
                                 "for role %s",
-                                quote_identifier(GetUserNameFromId(defacl->defaclrole)));
+                   quote_identifier(GetUserNameFromId(defacl->defaclrole)));
 
                if (OidIsValid(defacl->defaclnamespace))
                {
-                   char   *schema;
+                   char       *schema;
 
                    schema = get_namespace_name(defacl->defaclnamespace);
                    appendStringInfo(&buffer,
@@ -3291,7 +3292,7 @@ getObjectIdentity(const ObjectAddress *object)
                         object->objectId);
                trigForm = (Form_pg_event_trigger) GETSTRUCT(tup);
                appendStringInfo(&buffer, "%s",
-                                quote_identifier(NameStr(trigForm->evtname)));
+                              quote_identifier(NameStr(trigForm->evtname)));
                ReleaseSysCache(tup);
                break;
            }
index 7ddadcce4da96b9f28cc9c7455d94d93cf64b1a7..a8eb4cbc452b254ba10a2d2b2c178e90e6aa7526 100644 (file)
@@ -682,7 +682,7 @@ RenameConstraintById(Oid conId, const char *newname)
  */
 void
 AlterConstraintNamespaces(Oid ownerId, Oid oldNspId,
-                         Oid newNspId, bool isType, ObjectAddresses *objsMoved)
+                      Oid newNspId, bool isType, ObjectAddresses *objsMoved)
 {
    Relation    conRel;
    ScanKeyData key[1];
@@ -715,7 +715,7 @@ AlterConstraintNamespaces(Oid ownerId, Oid oldNspId,
    while (HeapTupleIsValid((tup = systable_getnext(scan))))
    {
        Form_pg_constraint conform = (Form_pg_constraint) GETSTRUCT(tup);
-       ObjectAddress   thisobj;
+       ObjectAddress thisobj;
 
        thisobj.classId = ConstraintRelationId;
        thisobj.objectId = HeapTupleGetOid(tup);
index 8136f1143f194c28b2ca41d1f2d06146a894b98c..7e746f96676816fdcde3902872dc13d4b5f12ec3 100644 (file)
@@ -180,7 +180,7 @@ AddEnumLabel(Oid enumTypeOid,
             const char *newVal,
             const char *neighbor,
             bool newValIsAfter,
-            bool skipIfExists)
+            bool skipIfExists)
 {
    Relation    pg_enum;
    Oid         newOid;
index 802b9840e86f9e3a40a6fe8fe2a008615d1e320d..3c4fedbd49c40387e8e6c5b05f0bba371b7517c1 100644 (file)
@@ -92,11 +92,11 @@ validOperatorName(const char *name)
        return false;
 
    /*
-    * For SQL standard compatibility, '+' and '-' cannot be the last char of a
-    * multi-char operator unless the operator contains chars that are not in
-    * SQL operators. The idea is to lex '=-' as two operators, but not to
-    * forbid operator names like '?-' that could not be sequences of standard SQL
-    * operators.
+    * For SQL standard compatibility, '+' and '-' cannot be the last char of
+    * a multi-char operator unless the operator contains chars that are not
+    * in SQL operators. The idea is to lex '=-' as two operators, but not to
+    * forbid operator names like '?-' that could not be sequences of standard
+    * SQL operators.
     */
    if (len > 1 &&
        (name[len - 1] == '+' ||
index 0b70adc479531dbd0d0b8f3aced86bfc7ccf897e..2a98ca95981d158a6f2544db0e2c8390ca868378 100644 (file)
@@ -406,7 +406,7 @@ ProcedureCreate(const char *procedureName,
                    (errcode(ERRCODE_INVALID_FUNCTION_DEFINITION),
                     errmsg("cannot change return type of existing function"),
                     errhint("Use DROP FUNCTION %s first.",
-                             format_procedure(HeapTupleGetOid(oldtup)))));
+                            format_procedure(HeapTupleGetOid(oldtup)))));
 
        /*
         * If it returns RECORD, check for possible change of record type
@@ -430,7 +430,7 @@ ProcedureCreate(const char *procedureName,
                    errmsg("cannot change return type of existing function"),
                errdetail("Row type defined by OUT parameters is different."),
                         errhint("Use DROP FUNCTION %s first.",
-                                 format_procedure(HeapTupleGetOid(oldtup)))));
+                                format_procedure(HeapTupleGetOid(oldtup)))));
        }
 
        /*
@@ -473,7 +473,7 @@ ProcedureCreate(const char *procedureName,
                       errmsg("cannot change name of input parameter \"%s\"",
                              old_arg_names[j]),
                             errhint("Use DROP FUNCTION %s first.",
-                                     format_procedure(HeapTupleGetOid(oldtup)))));
+                               format_procedure(HeapTupleGetOid(oldtup)))));
            }
        }
 
@@ -497,7 +497,7 @@ ProcedureCreate(const char *procedureName,
                        (errcode(ERRCODE_INVALID_FUNCTION_DEFINITION),
                         errmsg("cannot remove parameter defaults from existing function"),
                         errhint("Use DROP FUNCTION %s first.",
-                                 format_procedure(HeapTupleGetOid(oldtup)))));
+                                format_procedure(HeapTupleGetOid(oldtup)))));
 
            proargdefaults = SysCacheGetAttr(PROCNAMEARGSNSP, oldtup,
                                             Anum_pg_proc_proargdefaults,
@@ -524,7 +524,7 @@ ProcedureCreate(const char *procedureName,
                            (errcode(ERRCODE_INVALID_FUNCTION_DEFINITION),
                             errmsg("cannot change data type of existing parameter default value"),
                             errhint("Use DROP FUNCTION %s first.",
-                                     format_procedure(HeapTupleGetOid(oldtup)))));
+                               format_procedure(HeapTupleGetOid(oldtup)))));
                newlc = lnext(newlc);
            }
        }
index e411372fec2f24a378b1b4da75bcf8f7c721c6a8..7de4420fa3d66153eb2614fd93676d1ea5a664a2 100644 (file)
@@ -1382,7 +1382,7 @@ shdepReassignOwned(List *roleids, Oid newrole)
                    AlterEventTriggerOwner_oid(sdepForm->objid, newrole);
                    break;
 
-               /* Generic alter owner cases */
+                   /* Generic alter owner cases */
                case CollationRelationId:
                case ConversionRelationId:
                case OperatorRelationId:
index c43bebce851923a83326bc1c796cdb7ef3ec8b3c..971a149d590f72a3c0cc7cd0aa95ac1c86e73640 100644 (file)
@@ -505,13 +505,12 @@ smgr_redo(XLogRecPtr lsn, XLogRecord *record)
        smgrcreate(reln, MAIN_FORKNUM, true);
 
        /*
-        * Before we perform the truncation, update minimum recovery point
-        * to cover this WAL record. Once the relation is truncated, there's
-        * no going back. The buffer manager enforces the WAL-first rule
-        * for normal updates to relation files, so that the minimum recovery
-        * point is always updated before the corresponding change in the
-        * data file is flushed to disk. We have to do the same manually
-        * here.
+        * Before we perform the truncation, update minimum recovery point to
+        * cover this WAL record. Once the relation is truncated, there's no
+        * going back. The buffer manager enforces the WAL-first rule for
+        * normal updates to relation files, so that the minimum recovery
+        * point is always updated before the corresponding change in the data
+        * file is flushed to disk. We have to do the same manually here.
         *
         * Doing this before the truncation means that if the truncation fails
         * for some reason, you cannot start up the system even after restart,
index d34a102ee61a2f7f204cb0636941d6639bf2f6c1..4a03786210acd4287e45d391af23864b831c9144 100644 (file)
@@ -217,13 +217,13 @@ DefineAggregate(List *name, List *args, bool oldstyle, List *parameters)
    /*
     * Most of the argument-checking is done inside of AggregateCreate
     */
-   return AggregateCreate(aggName, /* aggregate name */
+   return AggregateCreate(aggName,     /* aggregate name */
                           aggNamespace,        /* namespace */
-                          aggArgTypes, /* input data type(s) */
+                          aggArgTypes, /* input data type(s) */
                           numArgs,
                           transfuncName,       /* step function name */
                           finalfuncName,       /* final function name */
                           sortoperatorName,    /* sort operator name */
-                          transTypeId, /* transition data type */
+                          transTypeId, /* transition data type */
                           initval);    /* initial condition */
 }
index 665b3804d57e3b79afbf44f2094a7194a9648135..178c97949dce209c4c6ef3d4560432c5ac3f539e 100644 (file)
@@ -62,7 +62,7 @@
 #include "utils/tqual.h"
 
 
-static Oid AlterObjectNamespace_internal(Relation rel, Oid objid, Oid nspOid);
+static Oid AlterObjectNamespace_internal(Relation rel, Oid objid, Oid nspOid);
 
 /*
  * Raise an error to the effect that an object of the given name is already
@@ -71,7 +71,7 @@ static Oid AlterObjectNamespace_internal(Relation rel, Oid objid, Oid nspOid);
 static void
 report_name_conflict(Oid classId, const char *name)
 {
-   char   *msgfmt;
+   char       *msgfmt;
 
    switch (classId)
    {
@@ -100,7 +100,7 @@ report_name_conflict(Oid classId, const char *name)
 static void
 report_namespace_conflict(Oid classId, const char *name, Oid nspOid)
 {
-   char   *msgfmt;
+   char       *msgfmt;
 
    Assert(OidIsValid(nspOid));
 
@@ -221,10 +221,10 @@ AlterObjectRename_internal(Relation rel, Oid objectId, const char *new_name)
    }
 
    /*
-     * Check for duplicate name (more friendly than unique-index failure).
-     * Since this is just a friendliness check, we can just skip it in cases
-     * where there isn't suitable support.
-     */
+    * Check for duplicate name (more friendly than unique-index failure).
+    * Since this is just a friendliness check, we can just skip it in cases
+    * where there isn't suitable support.
+    */
    if (classId == ProcedureRelationId)
    {
        Form_pg_proc proc = (Form_pg_proc) GETSTRUCT(oldtup);
@@ -355,9 +355,9 @@ ExecRenameStmt(RenameStmt *stmt)
        case OBJECT_TSPARSER:
        case OBJECT_TSTEMPLATE:
            {
-               ObjectAddress   address;
-               Relation        catalog;
-               Relation        relation;
+               ObjectAddress address;
+               Relation    catalog;
+               Relation    relation;
 
                address = get_object_address(stmt->renameType,
                                             stmt->object, stmt->objarg,
@@ -377,7 +377,7 @@ ExecRenameStmt(RenameStmt *stmt)
        default:
            elog(ERROR, "unrecognized rename stmt type: %d",
                 (int) stmt->renameType);
-           return InvalidOid;          /* keep compiler happy */
+           return InvalidOid;  /* keep compiler happy */
    }
 }
 
@@ -699,7 +699,7 @@ ExecAlterOwnerStmt(AlterOwnerStmt *stmt)
            return AlterEventTriggerOwner(strVal(linitial(stmt->object)),
                                          newowner);
 
-       /* Generic cases */
+           /* Generic cases */
        case OBJECT_AGGREGATE:
        case OBJECT_COLLATION:
        case OBJECT_CONVERSION:
@@ -716,7 +716,7 @@ ExecAlterOwnerStmt(AlterOwnerStmt *stmt)
                Relation    catalog;
                Relation    relation;
                Oid         classId;
-               ObjectAddress   address;
+               ObjectAddress address;
 
                address = get_object_address(stmt->objectType,
                                             stmt->object,
@@ -804,13 +804,13 @@ AlterObjectOwner_internal(Relation rel, Oid objectId, Oid new_ownerId)
        /* Superusers can bypass permission checks */
        if (!superuser())
        {
-           AclObjectKind   aclkind = get_object_aclkind(classId);
+           AclObjectKind aclkind = get_object_aclkind(classId);
 
            /* must be owner */
            if (!has_privs_of_role(GetUserId(), old_ownerId))
            {
-               char   *objname;
-               char    namebuf[NAMEDATALEN];
+               char       *objname;
+               char        namebuf[NAMEDATALEN];
 
                if (Anum_name != InvalidAttrNumber)
                {
@@ -833,7 +833,7 @@ AlterObjectOwner_internal(Relation rel, Oid objectId, Oid new_ownerId)
            /* New owner must have CREATE privilege on namespace */
            if (OidIsValid(namespaceId))
            {
-               AclResult   aclresult;
+               AclResult   aclresult;
 
                aclresult = pg_namespace_aclcheck(namespaceId, new_ownerId,
                                                  ACL_CREATE);
@@ -861,7 +861,7 @@ AlterObjectOwner_internal(Relation rel, Oid objectId, Oid new_ownerId)
                                 Anum_acl, RelationGetDescr(rel), &isnull);
            if (!isnull)
            {
-               Acl    *newAcl;
+               Acl        *newAcl;
 
                newAcl = aclnewowner(DatumGetAclP(datum),
                                     old_ownerId, new_ownerId);
index 9845cf9a4d70d03f5ff7580a141dcea9808d8718..f7ebd1a650d402b8cbdc2fe820ee1de4c1a08083 100644 (file)
@@ -1147,7 +1147,7 @@ asyncQueueUnregister(void)
 
    Assert(listenChannels == NIL);      /* else caller error */
 
-   if (!amRegisteredListener)          /* nothing to do */
+   if (!amRegisteredListener)  /* nothing to do */
        return;
 
    LWLockAcquire(AsyncQueueLock, LW_SHARED);
@@ -1519,7 +1519,7 @@ AtAbort_Notify(void)
    /*
     * If we LISTEN but then roll back the transaction after PreCommit_Notify,
     * we have registered as a listener but have not made any entry in
-    * listenChannels.  In that case, deregister again.
+    * listenChannels.  In that case, deregister again.
     */
    if (amRegisteredListener && listenChannels == NIL)
        asyncQueueUnregister();
index 878b6254f540e613d125823269e1e23f7b99d002..095d5e42d94aa5895f8788d541c09ed39163c549 100644 (file)
@@ -570,7 +570,7 @@ rebuild_relation(Relation OldHeap, Oid indexOid,
    bool        is_system_catalog;
    bool        swap_toast_by_content;
    TransactionId frozenXid;
-   MultiXactId frozenMulti;
+   MultiXactId frozenMulti;
 
    /* Mark the correct index as clustered */
    if (OidIsValid(indexOid))
@@ -746,7 +746,7 @@ copy_heap_data(Oid OIDNewHeap, Oid OIDOldHeap, Oid OIDOldIndex,
    bool        is_system_catalog;
    TransactionId OldestXmin;
    TransactionId FreezeXid;
-   MultiXactId MultiXactFrzLimit;
+   MultiXactId MultiXactFrzLimit;
    RewriteState rwstate;
    bool        use_sort;
    Tuplesortstate *tuplesort;
index ba4cf3e942afdc0cb769d9a73b14a31cb7398dd2..31819cce1d8660411f8a44e8d6e3ae6af8bc8d15 100644 (file)
@@ -126,7 +126,7 @@ typedef struct CopyStateData
    List       *force_notnull;  /* list of column names */
    bool       *force_notnull_flags;    /* per-column CSV FNN flags */
    bool        convert_selectively;    /* do selective binary conversion? */
-   List       *convert_select; /* list of column names (can be NIL) */
+   List       *convert_select; /* list of column names (can be NIL) */
    bool       *convert_select_flags;   /* per-column CSV/TEXT CS flags */
 
    /* these are just for error messages, see CopyFromErrorCallback */
@@ -183,7 +183,7 @@ typedef struct CopyStateData
     */
    StringInfoData line_buf;
    bool        line_buf_converted;     /* converted to server encoding? */
-   bool        line_buf_valid;         /* contains the row being processed? */
+   bool        line_buf_valid; /* contains the row being processed? */
 
    /*
     * Finally, raw_buf holds raw data read from the data source (file or
@@ -501,9 +501,9 @@ CopySendEndOfRow(CopyState cstate)
                        ClosePipeToProgram(cstate);
 
                        /*
-                        * If ClosePipeToProgram() didn't throw an error,
-                        * the program terminated normally, but closed the
-                        * pipe first. Restore errno, and throw an error.
+                        * If ClosePipeToProgram() didn't throw an error, the
+                        * program terminated normally, but closed the pipe
+                        * first. Restore errno, and throw an error.
                         */
                        errno = EPIPE;
                    }
@@ -781,7 +781,7 @@ DoCopy(const CopyStmt *stmt, const char *queryString, uint64 *processed)
    bool        is_from = stmt->is_from;
    bool        pipe = (stmt->filename == NULL);
    Relation    rel;
-   Oid         relid;
+   Oid         relid;
 
    /* Disallow COPY to/from file or program except to superusers. */
    if (!pipe && !superuser())
@@ -789,15 +789,15 @@ DoCopy(const CopyStmt *stmt, const char *queryString, uint64 *processed)
        if (stmt->is_program)
            ereport(ERROR,
                    (errcode(ERRCODE_INSUFFICIENT_PRIVILEGE),
-            errmsg("must be superuser to COPY to or from an external program"),
+                    errmsg("must be superuser to COPY to or from an external program"),
                     errhint("Anyone can COPY to stdout or from stdin. "
-                            "psql's \\copy command also works for anyone.")));
+                          "psql's \\copy command also works for anyone.")));
        else
            ereport(ERROR,
                    (errcode(ERRCODE_INSUFFICIENT_PRIVILEGE),
                     errmsg("must be superuser to COPY to or from a file"),
                     errhint("Anyone can COPY to stdout or from stdin. "
-                            "psql's \\copy command also works for anyone.")));
+                          "psql's \\copy command also works for anyone.")));
    }
 
    if (stmt->relation)
@@ -1022,9 +1022,9 @@ ProcessCopyOptions(CopyState cstate,
        else if (strcmp(defel->defname, "convert_selectively") == 0)
        {
            /*
-            * Undocumented, not-accessible-from-SQL option: convert only
-            * the named columns to binary form, storing the rest as NULLs.
-            * It's allowed for the column list to be NIL.
+            * Undocumented, not-accessible-from-SQL option: convert only the
+            * named columns to binary form, storing the rest as NULLs. It's
+            * allowed for the column list to be NIL.
             */
            if (cstate->convert_selectively)
                ereport(ERROR,
@@ -1403,7 +1403,7 @@ BeginCopy(bool is_from,
                ereport(ERROR,
                        (errcode(ERRCODE_INVALID_COLUMN_REFERENCE),
                         errmsg_internal("selected column \"%s\" not referenced by COPY",
-                                        NameStr(tupDesc->attrs[attnum - 1]->attname))));
+                            NameStr(tupDesc->attrs[attnum - 1]->attname))));
            cstate->convert_select_flags[attnum - 1] = true;
        }
    }
@@ -1436,7 +1436,7 @@ BeginCopy(bool is_from,
 static void
 ClosePipeToProgram(CopyState cstate)
 {
-   int pclose_rc;
+   int         pclose_rc;
 
    Assert(cstate->is_program);
 
@@ -1482,7 +1482,7 @@ BeginCopyTo(Relation rel,
            Node *query,
            const char *queryString,
            const char *filename,
-           bool  is_program,
+           bool is_program,
            List *attnamelist,
            List *options)
 {
@@ -1546,7 +1546,7 @@ BeginCopyTo(Relation rel,
        }
        else
        {
-           mode_t      oumask;     /* Pre-existing umask value */
+           mode_t      oumask; /* Pre-existing umask value */
            struct stat st;
 
            /*
@@ -1556,7 +1556,7 @@ BeginCopyTo(Relation rel,
            if (!is_absolute_path(filename))
                ereport(ERROR,
                        (errcode(ERRCODE_INVALID_NAME),
-                        errmsg("relative path not allowed for COPY to file")));
+                     errmsg("relative path not allowed for COPY to file")));
 
            oumask = umask(S_IWGRP | S_IWOTH);
            cstate->copy_file = AllocateFile(cstate->filename, PG_BINARY_W);
@@ -1929,8 +1929,8 @@ CopyFromErrorCallback(void *arg)
             * Error is relevant to a particular line.
             *
             * If line_buf still contains the correct line, and it's already
-            * transcoded, print it. If it's still in a foreign encoding,
-            * it's quite likely that the error is precisely a failure to do
+            * transcoded, print it. If it's still in a foreign encoding, it's
+            * quite likely that the error is precisely a failure to do
             * encoding conversion (ie, bad data). We dare not try to convert
             * it, and at present there's no way to regurgitate it without
             * conversion. So we have to punt and just report the line number.
@@ -2096,23 +2096,22 @@ CopyFrom(CopyState cstate)
    }
 
    /*
-    * Optimize if new relfilenode was created in this subxact or
-    * one of its committed children and we won't see those rows later
-    * as part of an earlier scan or command. This ensures that if this
-    * subtransaction aborts then the frozen rows won't be visible
-    * after xact cleanup. Note that the stronger test of exactly
-    * which subtransaction created it is crucial for correctness
-    * of this optimisation.
+    * Optimize if new relfilenode was created in this subxact or one of its
+    * committed children and we won't see those rows later as part of an
+    * earlier scan or command. This ensures that if this subtransaction
+    * aborts then the frozen rows won't be visible after xact cleanup. Note
+    * that the stronger test of exactly which subtransaction created it is
+    * crucial for correctness of this optimisation.
     */
    if (cstate->freeze)
    {
        if (!ThereAreNoPriorRegisteredSnapshots() || !ThereAreNoReadyPortals())
            ereport(ERROR,
                    (ERRCODE_INVALID_TRANSACTION_STATE,
-                   errmsg("cannot perform FREEZE because of prior transaction activity")));
+                    errmsg("cannot perform FREEZE because of prior transaction activity")));
 
        if (cstate->rel->rd_createSubid != GetCurrentSubTransactionId() &&
-           cstate->rel->rd_newRelfilenodeSubid != GetCurrentSubTransactionId())
+        cstate->rel->rd_newRelfilenodeSubid != GetCurrentSubTransactionId())
            ereport(ERROR,
                    (ERRCODE_OBJECT_NOT_IN_PREREQUISITE_STATE,
                     errmsg("cannot perform FREEZE because the table was not created or truncated in the current subtransaction")));
@@ -2427,7 +2426,7 @@ CopyFromInsertBatch(CopyState cstate, EState *estate, CommandId mycid,
 CopyState
 BeginCopyFrom(Relation rel,
              const char *filename,
-             bool  is_program,
+             bool is_program,
              List *attnamelist,
              List *options)
 {
index 14973f8e7c46eb95620a0af49a15b8db504dbd72..2bfe5fba8775631afb378b8591b536c3472b074b 100644 (file)
@@ -173,7 +173,7 @@ ExecCreateTableAs(CreateTableAsStmt *stmt, const char *queryString,
 int
 GetIntoRelEFlags(IntoClause *intoClause)
 {
-   int     flags;
+   int         flags;
 
    /*
     * We need to tell the executor whether it has to produce OIDs or not,
@@ -348,7 +348,7 @@ intorel_startup(DestReceiver *self, int operation, TupleDesc typeinfo)
    if (is_matview)
    {
        /* StoreViewQuery scribbles on tree, so make a copy */
-       Query  *query = (Query *) copyObject(into->viewQuery);
+       Query      *query = (Query *) copyObject(into->viewQuery);
 
        StoreViewQuery(intoRelationId, query, false);
        CommandCounterIncrement();
index b3911bff350e625b4be2c2f02302cb2a82423f8c..0e10a752180f30ab4739bb74a3336aad4daea459 100644 (file)
@@ -788,7 +788,7 @@ dropdb(const char *dbname, bool missing_ok)
    pgdbrel = heap_open(DatabaseRelationId, RowExclusiveLock);
 
    if (!get_db_info(dbname, AccessExclusiveLock, &db_id, NULL, NULL,
-                    &db_istemplate, NULL, NULL, NULL, NULL, NULL, NULL, NULL))
+                  &db_istemplate, NULL, NULL, NULL, NULL, NULL, NULL, NULL))
    {
        if (!missing_ok)
        {
@@ -1043,7 +1043,7 @@ movedb(const char *dbname, const char *tblspcname)
    pgdbrel = heap_open(DatabaseRelationId, RowExclusiveLock);
 
    if (!get_db_info(dbname, AccessExclusiveLock, &db_id, NULL, NULL,
-                    NULL, NULL, NULL, NULL, NULL, &src_tblspcoid, NULL, NULL))
+                  NULL, NULL, NULL, NULL, NULL, &src_tblspcoid, NULL, NULL))
        ereport(ERROR,
                (errcode(ERRCODE_UNDEFINED_DATABASE),
                 errmsg("database \"%s\" does not exist", dbname)));
@@ -1334,7 +1334,7 @@ Oid
 AlterDatabase(AlterDatabaseStmt *stmt, bool isTopLevel)
 {
    Relation    rel;
-   Oid         dboid;
+   Oid         dboid;
    HeapTuple   tuple,
                newtuple;
    ScanKeyData scankey;
@@ -1882,8 +1882,11 @@ static int
 errdetail_busy_db(int notherbackends, int npreparedxacts)
 {
    if (notherbackends > 0 && npreparedxacts > 0)
-       /* We don't deal with singular versus plural here, since gettext
-        * doesn't support multiple plurals in one string. */
+
+       /*
+        * We don't deal with singular versus plural here, since gettext
+        * doesn't support multiple plurals in one string.
+        */
        errdetail("There are %d other session(s) and %d prepared transaction(s) using the database.",
                  notherbackends, npreparedxacts);
    else if (notherbackends > 0)
@@ -1893,7 +1896,7 @@ errdetail_busy_db(int notherbackends, int npreparedxacts)
                         notherbackends);
    else
        errdetail_plural("There is %d prepared transaction using the database.",
-                        "There are %d prepared transactions using the database.",
+                   "There are %d prepared transactions using the database.",
                         npreparedxacts,
                         npreparedxacts);
    return 0;                   /* just to keep ereport macro happy */
index 8af96e12b958165c7bd72100501c71ec0a2bd848..93d16798e24a5f555e9b0904fb1a6b24f8d62e80 100644 (file)
@@ -47,16 +47,16 @@ typedef struct EventTriggerQueryState
 {
    slist_head  SQLDropList;
    bool        in_sql_drop;
-   MemoryContext   cxt;
+   MemoryContext cxt;
    struct EventTriggerQueryState *previous;
 } EventTriggerQueryState;
 
-EventTriggerQueryState *currentEventTriggerState = NULL;
+EventTriggerQueryState *currentEventTriggerState = NULL;
 
 typedef struct
 {
-   const char     *obtypename;
-   bool            supported;
+   const char *obtypename;
+   bool        supported;
 } event_trigger_support_data;
 
 typedef enum
@@ -67,61 +67,61 @@ typedef enum
 } event_trigger_command_tag_check_result;
 
 static event_trigger_support_data event_trigger_support[] = {
-   { "AGGREGATE", true },
-   { "CAST", true },
-   { "CONSTRAINT", true },
-   { "COLLATION", true },
-   { "CONVERSION", true },
-   { "DATABASE", false },
-   { "DOMAIN", true },
-   { "EXTENSION", true },
-   { "EVENT TRIGGER", false },
-   { "FOREIGN DATA WRAPPER", true },
-   { "FOREIGN TABLE", true },
-   { "FUNCTION", true },
-   { "INDEX", true },
-   { "LANGUAGE", true },
-   { "MATERIALIZED VIEW", true },
-   { "OPERATOR", true },
-   { "OPERATOR CLASS", true },
-   { "OPERATOR FAMILY", true },
-   { "ROLE", false },
-   { "RULE", true },
-   { "SCHEMA", true },
-   { "SEQUENCE", true },
-   { "SERVER", true },
-   { "TABLE", true },
-   { "TABLESPACE", false},
-   { "TRIGGER", true },
-   { "TEXT SEARCH CONFIGURATION", true },
-   { "TEXT SEARCH DICTIONARY", true },
-   { "TEXT SEARCH PARSER", true },
-   { "TEXT SEARCH TEMPLATE", true },
-   { "TYPE", true },
-   { "USER MAPPING", true },
-   { "VIEW", true },
-   { NULL, false }
+   {"AGGREGATE", true},
+   {"CAST", true},
+   {"CONSTRAINT", true},
+   {"COLLATION", true},
+   {"CONVERSION", true},
+   {"DATABASE", false},
+   {"DOMAIN", true},
+   {"EXTENSION", true},
+   {"EVENT TRIGGER", false},
+   {"FOREIGN DATA WRAPPER", true},
+   {"FOREIGN TABLE", true},
+   {"FUNCTION", true},
+   {"INDEX", true},
+   {"LANGUAGE", true},
+   {"MATERIALIZED VIEW", true},
+   {"OPERATOR", true},
+   {"OPERATOR CLASS", true},
+   {"OPERATOR FAMILY", true},
+   {"ROLE", false},
+   {"RULE", true},
+   {"SCHEMA", true},
+   {"SEQUENCE", true},
+   {"SERVER", true},
+   {"TABLE", true},
+   {"TABLESPACE", false},
+   {"TRIGGER", true},
+   {"TEXT SEARCH CONFIGURATION", true},
+   {"TEXT SEARCH DICTIONARY", true},
+   {"TEXT SEARCH PARSER", true},
+   {"TEXT SEARCH TEMPLATE", true},
+   {"TYPE", true},
+   {"USER MAPPING", true},
+   {"VIEW", true},
+   {NULL, false}
 };
 
 /* Support for dropped objects */
 typedef struct SQLDropObject
 {
-   ObjectAddress   address;
-   const char     *schemaname;
-   const char     *objname;
-   const char     *objidentity;
-   const char     *objecttype;
-   slist_node      next;
+   ObjectAddress address;
+   const char *schemaname;
+   const char *objname;
+   const char *objidentity;
+   const char *objecttype;
+   slist_node  next;
 } SQLDropObject;
 
 static void AlterEventTriggerOwner_internal(Relation rel,
-                                           HeapTuple tup,
-                                           Oid newOwnerId);
+                               HeapTuple tup,
+                               Oid newOwnerId);
 static event_trigger_command_tag_check_result check_ddl_tag(const char *tag);
 static void error_duplicate_filter_variable(const char *defname);
 static Datum filter_list_to_array(List *filterlist);
 static Oid insert_event_trigger_tuple(char *trigname, char *eventname,
-                                     Oid evtOwner, Oid funcoid, List *tags);
+                          Oid evtOwner, Oid funcoid, List *tags);
 static void validate_ddl_tags(const char *filtervar, List *taglist);
 static void EventTriggerInvoke(List *fn_oid_list, EventTriggerData *trigdata);
 
@@ -145,24 +145,24 @@ CreateEventTrigger(CreateEventTrigStmt *stmt)
     */
    if (!superuser())
        ereport(ERROR,
-           (errcode(ERRCODE_INSUFFICIENT_PRIVILEGE),
-            errmsg("permission denied to create event trigger \"%s\"",
-                   stmt->trigname),
-            errhint("Must be superuser to create an event trigger.")));
+               (errcode(ERRCODE_INSUFFICIENT_PRIVILEGE),
+                errmsg("permission denied to create event trigger \"%s\"",
+                       stmt->trigname),
+                errhint("Must be superuser to create an event trigger.")));
 
    /* Validate event name. */
    if (strcmp(stmt->eventname, "ddl_command_start") != 0 &&
        strcmp(stmt->eventname, "ddl_command_end") != 0 &&
        strcmp(stmt->eventname, "sql_drop") != 0)
        ereport(ERROR,
-           (errcode(ERRCODE_SYNTAX_ERROR),
-            errmsg("unrecognized event name \"%s\"",
-                   stmt->eventname)));
+               (errcode(ERRCODE_SYNTAX_ERROR),
+                errmsg("unrecognized event name \"%s\"",
+                       stmt->eventname)));
 
    /* Validate filter conditions. */
-   foreach (lc, stmt->whenclause)
+   foreach(lc, stmt->whenclause)
    {
-       DefElem    *def = (DefElem *) lfirst(lc);
+       DefElem    *def = (DefElem *) lfirst(lc);
 
        if (strcmp(def->defname, "tag") == 0)
        {
@@ -172,8 +172,8 @@ CreateEventTrigger(CreateEventTrigStmt *stmt)
        }
        else
            ereport(ERROR,
-               (errcode(ERRCODE_SYNTAX_ERROR),
-                errmsg("unrecognized filter variable \"%s\"", def->defname)));
+                   (errcode(ERRCODE_SYNTAX_ERROR),
+              errmsg("unrecognized filter variable \"%s\"", def->defname)));
    }
 
    /* Validate tag list, if any. */
@@ -192,7 +192,7 @@ CreateEventTrigger(CreateEventTrigStmt *stmt)
        ereport(ERROR,
                (errcode(ERRCODE_DUPLICATE_OBJECT),
                 errmsg("event trigger \"%s\" already exists",
-                   stmt->trigname)));
+                       stmt->trigname)));
 
    /* Find and validate the trigger function. */
    funcoid = LookupFuncName(stmt->funcname, 0, NULL, false);
@@ -216,7 +216,7 @@ validate_ddl_tags(const char *filtervar, List *taglist)
 {
    ListCell   *lc;
 
-   foreach (lc, taglist)
+   foreach(lc, taglist)
    {
        const char *tag = strVal(lfirst(lc));
        event_trigger_command_tag_check_result result;
@@ -226,13 +226,13 @@ validate_ddl_tags(const char *filtervar, List *taglist)
            ereport(ERROR,
                    (errcode(ERRCODE_SYNTAX_ERROR),
                     errmsg("filter value \"%s\" not recognized for filter variable \"%s\"",
-                       tag, filtervar)));
+                           tag, filtervar)));
        if (result == EVENT_TRIGGER_COMMAND_TAG_NOT_SUPPORTED)
            ereport(ERROR,
-               (errcode(ERRCODE_FEATURE_NOT_SUPPORTED),
-                /* translator: %s represents an SQL statement name */
-                errmsg("event triggers are not supported for %s",
-                   tag)));
+                   (errcode(ERRCODE_FEATURE_NOT_SUPPORTED),
+           /* translator: %s represents an SQL statement name */
+                    errmsg("event triggers are not supported for %s",
+                           tag)));
    }
 }
 
@@ -240,7 +240,7 @@ static event_trigger_command_tag_check_result
 check_ddl_tag(const char *tag)
 {
    const char *obtypename;
-   event_trigger_support_data     *etsd;
+   event_trigger_support_data *etsd;
 
    /*
     * Handle some idiosyncratic special cases.
@@ -287,7 +287,7 @@ error_duplicate_filter_variable(const char *defname)
    ereport(ERROR,
            (errcode(ERRCODE_SYNTAX_ERROR),
             errmsg("filter variable \"%s\" specified more than once",
-               defname)));
+                   defname)));
 }
 
 /*
@@ -297,12 +297,13 @@ static Oid
 insert_event_trigger_tuple(char *trigname, char *eventname, Oid evtOwner,
                           Oid funcoid, List *taglist)
 {
-   Relation tgrel;
-   Oid         trigoid;
+   Relation    tgrel;
+   Oid         trigoid;
    HeapTuple   tuple;
    Datum       values[Natts_pg_trigger];
    bool        nulls[Natts_pg_trigger];
-   ObjectAddress myself, referenced;
+   ObjectAddress myself,
+               referenced;
 
    /* Open pg_event_trigger. */
    tgrel = heap_open(EventTriggerRelationId, RowExclusiveLock);
@@ -415,9 +416,9 @@ AlterEventTrigger(AlterEventTrigStmt *stmt)
 {
    Relation    tgrel;
    HeapTuple   tup;
-   Oid         trigoid;
+   Oid         trigoid;
    Form_pg_event_trigger evtForm;
-   char        tgenabled = stmt->tgenabled;
+   char        tgenabled = stmt->tgenabled;
 
    tgrel = heap_open(EventTriggerRelationId, RowExclusiveLock);
 
@@ -427,7 +428,7 @@ AlterEventTrigger(AlterEventTrigStmt *stmt)
        ereport(ERROR,
                (errcode(ERRCODE_UNDEFINED_OBJECT),
                 errmsg("event trigger \"%s\" does not exist",
-                   stmt->trigname)));
+                       stmt->trigname)));
 
    trigoid = HeapTupleGetOid(tup);
 
@@ -498,7 +499,7 @@ AlterEventTriggerOwner_oid(Oid trigOid, Oid newOwnerId)
    if (!HeapTupleIsValid(tup))
        ereport(ERROR,
                (errcode(ERRCODE_UNDEFINED_OBJECT),
-         errmsg("event trigger with OID %u does not exist", trigOid)));
+              errmsg("event trigger with OID %u does not exist", trigOid)));
 
    AlterEventTriggerOwner_internal(rel, tup, newOwnerId);
 
@@ -528,9 +529,9 @@ AlterEventTriggerOwner_internal(Relation rel, HeapTuple tup, Oid newOwnerId)
    if (!superuser_arg(newOwnerId))
        ereport(ERROR,
                (errcode(ERRCODE_INSUFFICIENT_PRIVILEGE),
-                errmsg("permission denied to change owner of event trigger \"%s\"",
-                   NameStr(form->evtname)),
-                errhint("The owner of an event trigger must be a superuser.")));
+         errmsg("permission denied to change owner of event trigger \"%s\"",
+                NameStr(form->evtname)),
+            errhint("The owner of an event trigger must be a superuser.")));
 
    form->evtowner = newOwnerId;
    simple_heap_update(rel, &tup->t_self, tup);
@@ -570,7 +571,7 @@ get_event_trigger_oid(const char *trigname, bool missing_ok)
  * tags matching.
  */
 static bool
-filter_event_trigger(const char **tag, EventTriggerCacheItem  *item)
+filter_event_trigger(const char **tag, EventTriggerCacheItem *item)
 {
    /*
     * Filter by session replication role, knowing that we never see disabled
@@ -598,7 +599,7 @@ filter_event_trigger(const char **tag, EventTriggerCacheItem  *item)
 }
 
 /*
- * Setup for running triggers for the given event.  Return value is an OID list
+ * Setup for running triggers for the given event. Return value is an OID list
  * of functions to run; if there are any, trigdata is filled with an
  * appropriate EventTriggerData for them to receive.
  */
@@ -617,7 +618,7 @@ EventTriggerCommonSetup(Node *parsetree,
     * invoked to match up exactly with the list that CREATE EVENT TRIGGER
     * accepts.  This debugging cross-check will throw an error if this
     * function is invoked for a command tag that CREATE EVENT TRIGGER won't
-    * accept.  (Unfortunately, there doesn't seem to be any simple, automated
+    * accept.  (Unfortunately, there doesn't seem to be any simple, automated
     * way to verify that CREATE EVENT TRIGGER doesn't accept extra stuff that
     * never reaches this control point.)
     *
@@ -646,15 +647,15 @@ EventTriggerCommonSetup(Node *parsetree,
    tag = CreateCommandTag(parsetree);
 
    /*
-    * Filter list of event triggers by command tag, and copy them into
-    * our memory context.  Once we start running the command trigers, or
-    * indeed once we do anything at all that touches the catalogs, an
-    * invalidation might leave cachelist pointing at garbage, so we must
-    * do this before we can do much else.
+    * Filter list of event triggers by command tag, and copy them into our
+    * memory context.  Once we start running the command trigers, or indeed
+    * once we do anything at all that touches the catalogs, an invalidation
+    * might leave cachelist pointing at garbage, so we must do this before we
+    * can do much else.
     */
-   foreach (lc, cachelist)
+   foreach(lc, cachelist)
    {
-       EventTriggerCacheItem  *item = lfirst(lc);
+       EventTriggerCacheItem *item = lfirst(lc);
 
        if (filter_event_trigger(&tag, item))
        {
@@ -682,7 +683,7 @@ void
 EventTriggerDDLCommandStart(Node *parsetree)
 {
    List       *runlist;
-   EventTriggerData    trigdata;
+   EventTriggerData trigdata;
 
    /*
     * Event Triggers are completely disabled in standalone mode.  There are
@@ -704,7 +705,7 @@ EventTriggerDDLCommandStart(Node *parsetree)
        return;
 
    runlist = EventTriggerCommonSetup(parsetree,
-                                     EVT_DDLCommandStart, "ddl_command_start",
+                                   EVT_DDLCommandStart, "ddl_command_start",
                                      &trigdata);
    if (runlist == NIL)
        return;
@@ -716,8 +717,8 @@ EventTriggerDDLCommandStart(Node *parsetree)
    list_free(runlist);
 
    /*
-    * Make sure anything the event triggers did will be visible to
-    * the main command.
+    * Make sure anything the event triggers did will be visible to the main
+    * command.
     */
    CommandCounterIncrement();
 }
@@ -729,7 +730,7 @@ void
 EventTriggerDDLCommandEnd(Node *parsetree)
 {
    List       *runlist;
-   EventTriggerData    trigdata;
+   EventTriggerData trigdata;
 
    /*
     * See EventTriggerDDLCommandStart for a discussion about why event
@@ -745,8 +746,8 @@ EventTriggerDDLCommandEnd(Node *parsetree)
        return;
 
    /*
-    * Make sure anything the main command did will be visible to the
-    * event triggers.
+    * Make sure anything the main command did will be visible to the event
+    * triggers.
     */
    CommandCounterIncrement();
 
@@ -764,7 +765,7 @@ void
 EventTriggerSQLDrop(Node *parsetree)
 {
    List       *runlist;
-   EventTriggerData    trigdata;
+   EventTriggerData trigdata;
 
    /*
     * See EventTriggerDDLCommandStart for a discussion about why event
@@ -774,10 +775,11 @@ EventTriggerSQLDrop(Node *parsetree)
        return;
 
    /*
-    * Use current state to determine whether this event fires at all.  If there
-    * are no triggers for the sql_drop event, then we don't have anything to do
-    * here.  Note that dropped object collection is disabled if this is the case,
-    * so even if we were to try to run, the list would be empty.
+    * Use current state to determine whether this event fires at all.  If
+    * there are no triggers for the sql_drop event, then we don't have
+    * anything to do here.  Note that dropped object collection is disabled
+    * if this is the case, so even if we were to try to run, the list would
+    * be empty.
     */
    if (!currentEventTriggerState ||
        slist_is_empty(&currentEventTriggerState->SQLDropList))
@@ -786,24 +788,25 @@ EventTriggerSQLDrop(Node *parsetree)
    runlist = EventTriggerCommonSetup(parsetree,
                                      EVT_SQLDrop, "sql_drop",
                                      &trigdata);
+
    /*
-    * Nothing to do if run list is empty.  Note this shouldn't happen, because
-    * if there are no sql_drop events, then objects-to-drop wouldn't have been
-    * collected in the first place and we would have quitted above.
+    * Nothing to do if run list is empty.  Note this shouldn't happen,
+    * because if there are no sql_drop events, then objects-to-drop wouldn't
+    * have been collected in the first place and we would have quitted above.
     */
    if (runlist == NIL)
        return;
 
    /*
-    * Make sure anything the main command did will be visible to the
-    * event triggers.
+    * Make sure anything the main command did will be visible to the event
+    * triggers.
     */
    CommandCounterIncrement();
 
    /*
-    * Make sure pg_event_trigger_dropped_objects only works when running these
-    * triggers.  Use PG_TRY to ensure in_sql_drop is reset even when one
-    * trigger fails.  (This is perhaps not necessary, as the currentState
+    * Make sure pg_event_trigger_dropped_objects only works when running
+    * these triggers.  Use PG_TRY to ensure in_sql_drop is reset even when
+    * one trigger fails.  (This is perhaps not necessary, as the currentState
     * variable will be removed shortly by our caller, but it seems better to
     * play safe.)
     */
@@ -832,17 +835,17 @@ EventTriggerSQLDrop(Node *parsetree)
 static void
 EventTriggerInvoke(List *fn_oid_list, EventTriggerData *trigdata)
 {
-   MemoryContext   context;
-   MemoryContext   oldcontext;
-   ListCell       *lc;
-   bool            first = true;
+   MemoryContext context;
+   MemoryContext oldcontext;
+   ListCell   *lc;
+   bool        first = true;
 
    /* Guard against stack overflow due to recursive event trigger */
    check_stack_depth();
 
    /*
-    * Let's evaluate event triggers in their own memory context, so
-    * that any leaks get cleaned up promptly.
+    * Let's evaluate event triggers in their own memory context, so that any
+    * leaks get cleaned up promptly.
     */
    context = AllocSetContextCreate(CurrentMemoryContext,
                                    "event trigger context",
@@ -852,18 +855,18 @@ EventTriggerInvoke(List *fn_oid_list, EventTriggerData *trigdata)
    oldcontext = MemoryContextSwitchTo(context);
 
    /* Call each event trigger. */
-   foreach (lc, fn_oid_list)
+   foreach(lc, fn_oid_list)
    {
-       Oid     fnoid = lfirst_oid(lc);
-       FmgrInfo        flinfo;
+       Oid         fnoid = lfirst_oid(lc);
+       FmgrInfo    flinfo;
        FunctionCallInfoData fcinfo;
        PgStat_FunctionCallUsage fcusage;
 
        /*
-        * We want each event trigger to be able to see the results of
-        * the previous event trigger's action.  Caller is responsible
-        * for any command-counter increment that is needed between the
-        * event trigger and anything else in the transaction.
+        * We want each event trigger to be able to see the results of the
+        * previous event trigger's action.  Caller is responsible for any
+        * command-counter increment that is needed between the event trigger
+        * and anything else in the transaction.
         */
        if (first)
            first = false;
@@ -987,6 +990,7 @@ EventTriggerSupportsObjectClass(ObjectClass objclass)
            return true;
 
        case MAX_OCLASS:
+
            /*
             * This shouldn't ever happen, but we keep the case to avoid a
             * compiler warning without a "default" clause in the switch.
@@ -1008,7 +1012,7 @@ bool
 EventTriggerBeginCompleteQuery(void)
 {
    EventTriggerQueryState *state;
-   MemoryContext   cxt;
+   MemoryContext cxt;
 
    /*
     * Currently, sql_drop events are the only reason to have event trigger
@@ -1041,7 +1045,7 @@ EventTriggerBeginCompleteQuery(void)
  * returned false previously.
  *
  * Note: this might be called in the PG_CATCH block of a failing transaction,
- * so be wary of running anything unnecessary.  (In particular, it's probably
+ * so be wary of running anything unnecessary. (In particular, it's probably
  * unwise to try to allocate memory.)
  */
 void
@@ -1092,8 +1096,8 @@ trackDroppedObjectsNeeded(void)
 void
 EventTriggerSQLDropAddObject(ObjectAddress *object)
 {
-   SQLDropObject  *obj;
-   MemoryContext   oldcxt;
+   SQLDropObject *obj;
+   MemoryContext oldcxt;
 
    if (!currentEventTriggerState)
        return;
@@ -1112,8 +1116,9 @@ EventTriggerSQLDropAddObject(ObjectAddress *object)
 
    /*
     * Obtain schema names from the object's catalog tuple, if one exists;
-    * this lets us skip objects in temp schemas.  We trust that ObjectProperty
-    * contains all object classes that can be schema-qualified.
+    * this lets us skip objects in temp schemas.  We trust that
+    * ObjectProperty contains all object classes that can be
+    * schema-qualified.
     */
    if (is_objectclass_supported(object->classId))
    {
@@ -1136,7 +1141,7 @@ EventTriggerSQLDropAddObject(ObjectAddress *object)
                                     RelationGetDescr(catalog), &isnull);
                if (!isnull)
                {
-                   Oid     namespaceId;
+                   Oid         namespaceId;
 
                    namespaceId = DatumGetObjectId(datum);
                    /* Don't report objects in temp namespaces */
@@ -1189,12 +1194,12 @@ EventTriggerSQLDropAddObject(ObjectAddress *object)
 Datum
 pg_event_trigger_dropped_objects(PG_FUNCTION_ARGS)
 {
-   ReturnSetInfo      *rsinfo = (ReturnSetInfo *) fcinfo->resultinfo;
-   TupleDesc           tupdesc;
-   Tuplestorestate    *tupstore;
-   MemoryContext       per_query_ctx;
-   MemoryContext       oldcontext;
-   slist_iter          iter;
+   ReturnSetInfo *rsinfo = (ReturnSetInfo *) fcinfo->resultinfo;
+   TupleDesc   tupdesc;
+   Tuplestorestate *tupstore;
+   MemoryContext per_query_ctx;
+   MemoryContext oldcontext;
+   slist_iter  iter;
 
    /*
     * Protect this function from being called out of context
@@ -1203,8 +1208,8 @@ pg_event_trigger_dropped_objects(PG_FUNCTION_ARGS)
        !currentEventTriggerState->in_sql_drop)
        ereport(ERROR,
                (errcode(ERRCODE_FEATURE_NOT_SUPPORTED),
-                errmsg("%s can only be called in a sql_drop event trigger function",
-                       "pg_event_trigger_dropped_objects()")));
+        errmsg("%s can only be called in a sql_drop event trigger function",
+               "pg_event_trigger_dropped_objects()")));
 
    /* check to see if caller supports us returning a tuplestore */
    if (rsinfo == NULL || !IsA(rsinfo, ReturnSetInfo))
index c6398e3c8e7ef6bec1d693a82fbaa18df00911e2..91bea517ec823120b7a18507d6cdc36737c0ffc9 100644 (file)
@@ -415,8 +415,8 @@ ExplainOnePlan(PlannedStmt *plannedstmt, IntoClause *into, ExplainState *es,
        instrument_option |= INSTRUMENT_BUFFERS;
 
    /*
-    * We always collect timing for the entire statement, even when
-    * node-level timing is off, so we don't look at es->timing here.
+    * We always collect timing for the entire statement, even when node-level
+    * timing is off, so we don't look at es->timing here.
     */
    INSTR_TIME_SET_CURRENT(starttime);
 
index 9f0ac9bd50a86d8387011415c7d146e1f824f6cf..38187a837c60cf95a32f1b4fc1ea09790a660d38 100644 (file)
@@ -968,8 +968,8 @@ CreateFunction(CreateFunctionStmt *stmt, const char *queryString)
                           GetUserId(),
                           languageOid,
                           languageValidator,
-                          prosrc_str, /* converted to text later */
-                          probin_str, /* converted to text later */
+                          prosrc_str,  /* converted to text later */
+                          probin_str,  /* converted to text later */
                           false,       /* not an aggregate */
                           isWindowFunc,
                           security,
index 66eae92a4c15c73f391287e695796431a6b835c1..7ea90d07d3c1b85d55f93fe5f7c886335fde87d8 100644 (file)
@@ -351,7 +351,7 @@ DefineIndex(IndexStmt *stmt,
     * (but not VACUUM).
     */
    rel = heap_openrv(stmt->relation,
-                     (stmt->concurrent ? ShareUpdateExclusiveLock : ShareLock));
+                 (stmt->concurrent ? ShareUpdateExclusiveLock : ShareLock));
 
    relationId = RelationGetRelid(rel);
    namespaceId = RelationGetNamespace(rel);
@@ -774,7 +774,7 @@ DefineIndex(IndexStmt *stmt,
     * Drop the reference snapshot.  We must do this before waiting out other
     * snapshot holders, else we will deadlock against other processes also
     * doing CREATE INDEX CONCURRENTLY, which would see our snapshot as one
-    * they must wait for.  But first, save the snapshot's xmin to use as
+    * they must wait for.  But first, save the snapshot's xmin to use as
     * limitXmin for GetCurrentVirtualXIDs().
     */
    limitXmin = snapshot->xmin;
index 5491c84c7660c8691da4139d2a9f9d89b38e5f39..2ffdca31f6ba35e2c95d75fcba5bf850f7a20aa3 100644 (file)
@@ -49,7 +49,7 @@ static void transientrel_receive(TupleTableSlot *slot, DestReceiver *self);
 static void transientrel_shutdown(DestReceiver *self);
 static void transientrel_destroy(DestReceiver *self);
 static void refresh_matview_datafill(DestReceiver *dest, Query *query,
-                                    const char *queryString);
+                        const char *queryString);
 
 /*
  * SetMatViewPopulatedState
@@ -115,7 +115,7 @@ SetMatViewPopulatedState(Relation relation, bool newstate)
  */
 void
 ExecRefreshMatView(RefreshMatViewStmt *stmt, const char *queryString,
-                 ParamListInfo params, char *completionTag)
+                  ParamListInfo params, char *completionTag)
 {
    Oid         matviewOid;
    Relation    matviewRel;
@@ -130,8 +130,8 @@ ExecRefreshMatView(RefreshMatViewStmt *stmt, const char *queryString,
     * Get a lock until end of transaction.
     */
    matviewOid = RangeVarGetRelidExtended(stmt->relation,
-                                          AccessExclusiveLock, false, false,
-                                          RangeVarCallbackOwnsTable, NULL);
+                                         AccessExclusiveLock, false, false,
+                                         RangeVarCallbackOwnsTable, NULL);
    matviewRel = heap_open(matviewOid, NoLock);
 
    /* Make sure it is a materialized view. */
@@ -226,7 +226,7 @@ static void
 refresh_matview_datafill(DestReceiver *dest, Query *query,
                         const char *queryString)
 {
-   List       *rewritten;
+   List       *rewritten;
    PlannedStmt *plan;
    QueryDesc  *queryDesc;
 
@@ -295,7 +295,7 @@ static void
 transientrel_startup(DestReceiver *self, int operation, TupleDesc typeinfo)
 {
    DR_transientrel *myState = (DR_transientrel *) self;
-   Relation transientrel;
+   Relation    transientrel;
 
    transientrel = heap_open(myState->transientoid, NoLock);
 
index 68ec57ac4b6d683b5ce796524e4b89433b07aead..f2d78ef66321beabd2bb396ddab21bc6c48bb3f5 100644 (file)
@@ -1683,7 +1683,7 @@ get_am_name(Oid amOid)
  * Subroutine for ALTER OPERATOR CLASS SET SCHEMA/RENAME
  *
  * Is there an operator class with the given name and signature already
- * in the given namespace?  If so, raise an appropriate error message.
+ * in the given namespace? If so, raise an appropriate error message.
  */
 void
 IsThereOpClassInNamespace(const char *opcname, Oid opcmethod,
@@ -1706,7 +1706,7 @@ IsThereOpClassInNamespace(const char *opcname, Oid opcmethod,
  * Subroutine for ALTER OPERATOR FAMILY SET SCHEMA/RENAME
  *
  * Is there an operator family with the given name and signature already
- * in the given namespace?  If so, raise an appropriate error message.
+ * in the given namespace? If so, raise an appropriate error message.
  */
 void
 IsThereOpFamilyInNamespace(const char *opfname, Oid opfmethod,
index e451414b1498a11c1d58030dd9fb30b82133c59f..4692b087bef3a0dd72eb0864b4828966588e2cd4 100644 (file)
@@ -296,15 +296,15 @@ DefineOperator(List *names, List *parameters)
     * now have OperatorCreate do all the work..
     */
    return
-       OperatorCreate(oprName,     /* operator name */
+       OperatorCreate(oprName, /* operator name */
                       oprNamespace,    /* namespace */
-                      typeId1,     /* left type id */
-                      typeId2,     /* right type id */
-                      functionOid, /* function for operator */
-                      commutatorName,      /* optional commutator operator name */
-                      negatorName, /* optional negator operator name */
-                      restrictionOid,      /* optional restrict. sel. procedure */
-                      joinOid,     /* optional join sel. procedure name */
+                      typeId1, /* left type id */
+                      typeId2, /* right type id */
+                      functionOid,     /* function for operator */
+                      commutatorName,  /* optional commutator operator name */
+                      negatorName,     /* optional negator operator name */
+                      restrictionOid,  /* optional restrict. sel. procedure */
+                      joinOid, /* optional join sel. procedure name */
                       canMerge,    /* operator merges */
                       canHash);    /* operator hashes */
 }
index 1c98c3226d037096e458390c20eee8ee7d5e02d6..6e4c682072d7f913d0ebd23d45c35e65db92f88c 100644 (file)
@@ -52,8 +52,8 @@ typedef struct
 } PLTemplate;
 
 static Oid create_proc_lang(const char *languageName, bool replace,
-                           Oid languageOwner, Oid handlerOid, Oid inlineOid,
-                           Oid valOid, bool trusted);
+                Oid languageOwner, Oid handlerOid, Oid inlineOid,
+                Oid valOid, bool trusted);
 static PLTemplate *find_language_template(const char *languageName);
 
 /* ---------------------------------------------------------------------
index 49e409a5eed05924ac332df7781e544912f3480e..bffc12ed0e982895ca9fbb372879cde85ef7d2f1 100644 (file)
@@ -698,8 +698,8 @@ nextval_internal(Oid relid)
    /*
     * We must mark the buffer dirty before doing XLogInsert(); see notes in
     * SyncOneBuffer().  However, we don't apply the desired changes just yet.
-    * This looks like a violation of the buffer update protocol, but it is
-    * in fact safe because we hold exclusive lock on the buffer.  Any other
+    * This looks like a violation of the buffer update protocol, but it is in
+    * fact safe because we hold exclusive lock on the buffer.  Any other
     * process, including a checkpoint, that tries to examine the buffer
     * contents will block until we release the lock, and then will see the
     * final state that we install below.
@@ -1226,8 +1226,8 @@ init_params(List *options, bool isInit,
    }
 
    /*
-    * We must reset log_cnt when isInit or when changing any parameters
-    * that would affect future nextval allocations.
+    * We must reset log_cnt when isInit or when changing any parameters that
+    * would affect future nextval allocations.
     */
    if (isInit)
        new->log_cnt = 0;
index fe32834953380f88444e868cc2becb14b94fff2a..a3f4ce2c52e470b2c97b99ba38b28ff81dff572e 100644 (file)
@@ -271,7 +271,7 @@ static void StoreCatalogInheritance1(Oid relationId, Oid parentOid,
                         int16 seqNumber, Relation inhRelation);
 static int findAttrByName(const char *attributeName, List *schema);
 static void AlterIndexNamespaces(Relation classRel, Relation rel,
-                    Oid oldNspOid, Oid newNspOid, ObjectAddresses *objsMoved);
+                  Oid oldNspOid, Oid newNspOid, ObjectAddresses *objsMoved);
 static void AlterSeqNamespaces(Relation classRel, Relation rel,
                   Oid oldNspOid, Oid newNspOid, ObjectAddresses *objsMoved,
                   LOCKMODE lockmode);
@@ -1141,7 +1141,7 @@ ExecuteTruncate(TruncateStmt *stmt)
        {
            Oid         heap_relid;
            Oid         toast_relid;
-           MultiXactId minmulti;
+           MultiXactId minmulti;
 
            /*
             * This effectively deletes all rows in the table, and may be done
@@ -1675,14 +1675,14 @@ MergeAttributes(List *schema, List *supers, char relpersistence,
                                           &found_whole_row);
 
                /*
-                * For the moment we have to reject whole-row variables.
-                * We could convert them, if we knew the new table's rowtype
-                * OID, but that hasn't been assigned yet.
+                * For the moment we have to reject whole-row variables. We
+                * could convert them, if we knew the new table's rowtype OID,
+                * but that hasn't been assigned yet.
                 */
                if (found_whole_row)
                    ereport(ERROR,
                            (errcode(ERRCODE_FEATURE_NOT_SUPPORTED),
-                            errmsg("cannot convert whole-row table reference"),
+                         errmsg("cannot convert whole-row table reference"),
                             errdetail("Constraint \"%s\" contains a whole-row reference to table \"%s\".",
                                       name,
                                       RelationGetRelationName(relation))));
@@ -2122,7 +2122,7 @@ renameatt_internal(Oid myrelid,
    Relation    targetrelation;
    Relation    attrelation;
    HeapTuple   atttup;
-   Form_pg_attribute   attform;
+   Form_pg_attribute attform;
    int         attnum;
 
    /*
@@ -2438,8 +2438,8 @@ RenameConstraint(RenameStmt *stmt)
        rename_constraint_internal(relid, typid,
                                   stmt->subname,
                                   stmt->newname,
-                                  stmt->relation ? interpretInhOption(stmt->relation->inhOpt) : false, /* recursive? */
-                                  false,   /* recursing? */
+        stmt->relation ? interpretInhOption(stmt->relation->inhOpt) : false,   /* recursive? */
+                                  false,       /* recursing? */
                                   0 /* expected inhcount */ );
 
 }
@@ -2795,7 +2795,7 @@ AlterTableGetLockLevel(List *cmds)
            case AT_ColumnDefault:
            case AT_ProcessedConstraint:        /* becomes AT_AddConstraint */
            case AT_AddConstraintRecurse:       /* becomes AT_AddConstraint */
-           case AT_ReAddConstraint:            /* becomes AT_AddConstraint */
+           case AT_ReAddConstraint:    /* becomes AT_AddConstraint */
            case AT_EnableTrig:
            case AT_EnableAlwaysTrig:
            case AT_EnableReplicaTrig:
@@ -3294,7 +3294,8 @@ ATExecCmd(List **wqueue, AlteredTableInfo *tab, Relation rel,
            ATExecAddConstraint(wqueue, tab, rel, (Constraint *) cmd->def,
                                true, false, lockmode);
            break;
-       case AT_ReAddConstraint:    /* Re-add pre-existing check constraint */
+       case AT_ReAddConstraint:        /* Re-add pre-existing check
+                                        * constraint */
            ATExecAddConstraint(wqueue, tab, rel, (Constraint *) cmd->def,
                                false, true, lockmode);
            break;
@@ -3855,7 +3856,7 @@ ATRewriteTable(AlteredTableInfo *tab, Oid OIDNewHeap, LOCKMODE lockmode)
                    ereport(ERROR,
                            (errcode(ERRCODE_NOT_NULL_VIOLATION),
                             errmsg("column \"%s\" contains null values",
-                               NameStr(newTupDesc->attrs[attn]->attname)),
+                                 NameStr(newTupDesc->attrs[attn]->attname)),
                             errtablecol(oldrel, attn + 1)));
            }
 
@@ -5566,10 +5567,10 @@ ATExecAddIndexConstraint(AlteredTableInfo *tab, Relation rel,
                            stmt->deferrable,
                            stmt->initdeferred,
                            stmt->primary,
-                           true, /* update pg_index */
-                           true, /* remove old dependencies */
+                           true,       /* update pg_index */
+                           true,       /* remove old dependencies */
                            allowSystemTableMods,
-                           false); /* is_internal */
+                           false);     /* is_internal */
 
    index_close(indexRel, NoLock);
 }
@@ -9023,14 +9024,14 @@ ATExecAddInherit(Relation child_rel, RangeVar *parent, LOCKMODE lockmode)
        !parent_rel->rd_islocaltemp)
        ereport(ERROR,
                (errcode(ERRCODE_WRONG_OBJECT_TYPE),
-                errmsg("cannot inherit from temporary relation of another session")));
+       errmsg("cannot inherit from temporary relation of another session")));
 
    /* Ditto for the child */
    if (child_rel->rd_rel->relpersistence == RELPERSISTENCE_TEMP &&
        !child_rel->rd_islocaltemp)
        ereport(ERROR,
                (errcode(ERRCODE_WRONG_OBJECT_TYPE),
-                errmsg("cannot inherit to temporary relation of another session")));
+        errmsg("cannot inherit to temporary relation of another session")));
 
    /*
     * Check for duplicates in the list of parents, and determine the highest
@@ -9564,9 +9565,9 @@ ATExecDropInherit(Relation rel, RangeVar *parent, LOCKMODE lockmode)
                           RelationGetRelid(parent_rel));
 
    /*
-    * Post alter hook of this inherits. Since object_access_hook doesn't
-    * take multiple object identifiers, we relay oid of parent relation
-    * using auxiliary_id argument.
+    * Post alter hook of this inherits. Since object_access_hook doesn't take
+    * multiple object identifiers, we relay oid of parent relation using
+    * auxiliary_id argument.
     */
    InvokeObjectPostAlterHookArg(InheritsRelationId,
                                 RelationGetRelid(rel), 0,
@@ -9984,11 +9985,11 @@ AlterTableNamespaceInternal(Relation rel, Oid oldNspOid, Oid nspOid,
 void
 AlterRelationNamespaceInternal(Relation classRel, Oid relOid,
                               Oid oldNspOid, Oid newNspOid,
-                              bool hasDependEntry, ObjectAddresses *objsMoved)
+                            bool hasDependEntry, ObjectAddresses *objsMoved)
 {
    HeapTuple   classTup;
    Form_pg_class classForm;
-   ObjectAddress   thisobj;
+   ObjectAddress thisobj;
 
    classTup = SearchSysCacheCopy1(RELOID, ObjectIdGetDatum(relOid));
    if (!HeapTupleIsValid(classTup))
@@ -10024,7 +10025,7 @@ AlterRelationNamespaceInternal(Relation classRel, Oid relOid,
        /* Update dependency on schema if caller said so */
        if (hasDependEntry &&
            changeDependencyFor(RelationRelationId, relOid,
-                               NamespaceRelationId, oldNspOid, newNspOid) != 1)
+                            NamespaceRelationId, oldNspOid, newNspOid) != 1)
            elog(ERROR, "failed to change schema dependency for relation \"%s\"",
                 NameStr(classForm->relname));
 
@@ -10247,6 +10248,7 @@ PreCommit_on_commit_actions(void)
                /* Do nothing (there shouldn't be such entries, actually) */
                break;
            case ONCOMMIT_DELETE_ROWS:
+
                /*
                 * If this transaction hasn't accessed any temporary
                 * relations, we can skip truncating ON COMMIT DELETE ROWS
@@ -10379,7 +10381,7 @@ AtEOSubXact_on_commit_actions(bool isCommit, SubTransactionId mySubid,
  * This is intended as a callback for RangeVarGetRelidExtended().  It allows
  * the relation to be locked only if (1) it's a plain table, materialized
  * view, or TOAST table and (2) the current user is the owner (or the
- * superuser).  This meets the permission-checking needs of CLUSTER, REINDEX
+ * superuser). This meets the permission-checking needs of CLUSTER, REINDEX
  * TABLE, and REFRESH MATERIALIZED VIEW; we expose it here so that it can be
  * used by all.
  */
index a0473498bd2de751a109107816d046e7857f0ad2..851947643c2575862869352c95b36f50a4794aac 100644 (file)
@@ -447,7 +447,7 @@ CreateTrigger(CreateTrigStmt *stmt, const char *queryString,
                                              true,     /* islocal */
                                              0,        /* inhcount */
                                              true,     /* isnoinherit */
-                                             isInternal);  /* is_internal */
+                                             isInternal);      /* is_internal */
    }
 
    /*
@@ -1266,6 +1266,7 @@ renametrig(RenameStmt *stmt)
    if (HeapTupleIsValid(tuple = systable_getnext(tgscan)))
    {
        tgoid = HeapTupleGetOid(tuple);
+
        /*
         * Update pg_trigger tuple with new tgname.
         */
@@ -2210,7 +2211,7 @@ ExecARDeleteTriggers(EState *estate, ResultRelInfo *relinfo,
    if (trigdesc && trigdesc->trig_delete_after_row)
    {
        HeapTuple   trigtuple = GetTupleForTrigger(estate, NULL, relinfo,
-                                                  tupleid, LockTupleExclusive,
+                                                tupleid, LockTupleExclusive,
                                                   NULL);
 
        AfterTriggerSaveEvent(estate, relinfo, TRIGGER_EVENT_DELETE,
@@ -2449,7 +2450,7 @@ ExecARUpdateTriggers(EState *estate, ResultRelInfo *relinfo,
    if (trigdesc && trigdesc->trig_update_after_row)
    {
        HeapTuple   trigtuple = GetTupleForTrigger(estate, NULL, relinfo,
-                                                  tupleid, LockTupleExclusive,
+                                                tupleid, LockTupleExclusive,
                                                   NULL);
 
        AfterTriggerSaveEvent(estate, relinfo, TRIGGER_EVENT_UPDATE,
@@ -2614,11 +2615,12 @@ ltrmark:;
        tuple.t_self = *tid;
        test = heap_lock_tuple(relation, &tuple,
                               estate->es_output_cid,
-                              lockmode, false /* wait */,
+                              lockmode, false /* wait */ ,
                               false, &buffer, &hufd);
        switch (test)
        {
            case HeapTupleSelfUpdated:
+
                /*
                 * The target tuple was already updated or deleted by the
                 * current command, or by a later command in the current
index 9efe24417e5e62d689c53190c124bc6f22572fae..6bc16f198e3e8845df3527b8491048258fbe9c02 100644 (file)
@@ -598,32 +598,32 @@ DefineType(List *names, List *parameters)
                        array_type,     /* type name */
                        typeNamespace,  /* namespace */
                        InvalidOid,     /* relation oid (n/a here) */
-                       0,              /* relation kind (ditto) */
-                       GetUserId(),        /* owner's ID */
-                       -1,             /* internal size (always varlena) */
+                       0,      /* relation kind (ditto) */
+                       GetUserId(),    /* owner's ID */
+                       -1,     /* internal size (always varlena) */
                        TYPTYPE_BASE,   /* type-type (base type) */
                        TYPCATEGORY_ARRAY,      /* type-category (array) */
-                       false,          /* array types are never preferred */
+                       false,  /* array types are never preferred */
                        delimiter,      /* array element delimiter */
                        F_ARRAY_IN,     /* input procedure */
-                       F_ARRAY_OUT,        /* output procedure */
+                       F_ARRAY_OUT,    /* output procedure */
                        F_ARRAY_RECV,   /* receive procedure */
                        F_ARRAY_SEND,   /* send procedure */
-                       typmodinOid,        /* typmodin procedure */
+                       typmodinOid,    /* typmodin procedure */
                        typmodoutOid,   /* typmodout procedure */
                        F_ARRAY_TYPANALYZE,     /* analyze procedure */
-                       typoid,         /* element type ID */
-                       true,           /* yes this is an array type */
+                       typoid, /* element type ID */
+                       true,   /* yes this is an array type */
                        InvalidOid,     /* no further array type */
                        InvalidOid,     /* base type ID */
-                       NULL,           /* never a default type value */
-                       NULL,           /* binary default isn't sent either */
-                       false,          /* never passed by value */
+                       NULL,   /* never a default type value */
+                       NULL,   /* binary default isn't sent either */
+                       false,  /* never passed by value */
                        alignment,      /* see above */
-                       'x',                /* ARRAY is always toastable */
-                       -1,             /* typMod (Domains only) */
-                       0,              /* Array dimensions of typbasetype */
-                       false,          /* Type NOT NULL */
+                       'x',    /* ARRAY is always toastable */
+                       -1,     /* typMod (Domains only) */
+                       0,      /* Array dimensions of typbasetype */
+                       false,  /* Type NOT NULL */
                        collation);     /* type's collation */
 
    pfree(array_type);
@@ -924,8 +924,8 @@ DefineDomain(CreateDomainStmt *stmt)
                /*
                 * Check constraints are handled after domain creation, as
                 * they require the Oid of the domain; at this point we can
-                * only check that they're not marked NO INHERIT, because
-                * that would be bogus.
+                * only check that they're not marked NO INHERIT, because that
+                * would be bogus.
                 */
                if (constr->is_no_inherit)
                    ereport(ERROR,
@@ -1191,19 +1191,19 @@ AlterEnum(AlterEnumStmt *stmt, bool isTopLevel)
    /*
     * Ordinarily we disallow adding values within transaction blocks, because
     * we can't cope with enum OID values getting into indexes and then having
-    * their defining pg_enum entries go away.  However, it's okay if the enum
-    * type was created in the current transaction, since then there can be
-    * no such indexes that wouldn't themselves go away on rollback.  (We
-    * support this case because pg_dump --binary-upgrade needs it.)  We test
-    * this by seeing if the pg_type row has xmin == current XID and is not
-    * HEAP_UPDATED.  If it is HEAP_UPDATED, we can't be sure whether the
-    * type was created or only modified in this xact.  So we are disallowing
-    * some cases that could theoretically be safe; but fortunately pg_dump
-    * only needs the simplest case.
+    * their defining pg_enum entries go away.  However, it's okay if the enum
+    * type was created in the current transaction, since then there can be no
+    * such indexes that wouldn't themselves go away on rollback.  (We support
+    * this case because pg_dump --binary-upgrade needs it.)  We test this by
+    * seeing if the pg_type row has xmin == current XID and is not
+    * HEAP_UPDATED.  If it is HEAP_UPDATED, we can't be sure whether the type
+    * was created or only modified in this xact.  So we are disallowing some
+    * cases that could theoretically be safe; but fortunately pg_dump only
+    * needs the simplest case.
     */
    if (HeapTupleHeaderGetXmin(tup->t_data) == GetCurrentTransactionId() &&
        !(tup->t_data->t_infomask & HEAP_UPDATED))
-       /* safe to do inside transaction block */ ;
+        /* safe to do inside transaction block */ ;
    else
        PreventTransactionChain(isTopLevel, "ALTER TYPE ... ADD");
 
@@ -2273,7 +2273,7 @@ AlterDomainNotNull(List *names, bool notNull)
                        /*
                         * In principle the auxiliary information for this
                         * error should be errdatatype(), but errtablecol()
-                        * seems considerably more useful in practice.  Since
+                        * seems considerably more useful in practice.  Since
                         * this code only executes in an ALTER DOMAIN command,
                         * the client should already know which domain is in
                         * question.
@@ -2667,7 +2667,7 @@ validateDomainConstraint(Oid domainoid, char *ccbin)
                    /*
                     * In principle the auxiliary information for this error
                     * should be errdomainconstraint(), but errtablecol()
-                    * seems considerably more useful in practice.  Since this
+                    * seems considerably more useful in practice.  Since this
                     * code only executes in an ALTER DOMAIN command, the
                     * client should already know which domain is in question,
                     * and which constraint too.
@@ -3005,7 +3005,7 @@ domainAddConstraint(Oid domainOid, Oid domainNamespace, Oid baseTypeOid,
                          true, /* is local */
                          0,    /* inhcount */
                          false,    /* connoinherit */
-                         false);   /* is_internal */
+                         false);       /* is_internal */
 
    /*
     * Return the compiled constraint expression so the calling routine can
@@ -3348,7 +3348,7 @@ AlterTypeOwner(List *names, Oid newOwnerId, ObjectType objecttype)
  * hasDependEntry should be TRUE if type is expected to have a pg_shdepend
  * entry (ie, it's not a table rowtype nor an array type).
  * is_primary_ops should be TRUE if this function is invoked with user's
- * direct operation (e.g, shdepReassignOwned). Elsewhere, 
+ * direct operation (e.g, shdepReassignOwned). Elsewhere,
  */
 void
 AlterTypeOwnerInternal(Oid typeOid, Oid newOwnerId,
@@ -3397,7 +3397,7 @@ AlterTypeNamespace(List *names, const char *newschema, ObjectType objecttype)
    TypeName   *typename;
    Oid         typeOid;
    Oid         nspOid;
-   ObjectAddresses *objsMoved;
+   ObjectAddresses *objsMoved;
 
    /* Make a TypeName so we can use standard type lookup machinery */
    typename = makeTypeNameFromNameList(names);
index c7886ed799e6bc7be60886f15bd9984073a0d0e2..844f25cfa659698d7e516355643c1d8492f71340 100644 (file)
@@ -815,7 +815,7 @@ AlterRoleSet(AlterRoleSetStmt *stmt)
 {
    HeapTuple   roletuple;
    Oid         databaseid = InvalidOid;
-   Oid         roleid = InvalidOid;
+   Oid         roleid = InvalidOid;
 
    if (stmt->role)
    {
index c984488e034f651c2db833768186f23ff7132377..641c740268a8b2ec7bd502ca98375ef580d70d31 100644 (file)
@@ -327,10 +327,10 @@ get_rel_oids(Oid relid, const RangeVar *vacrel)
         * Since we don't take a lock here, the relation might be gone, or the
         * RangeVar might no longer refer to the OID we look up here.  In the
         * former case, VACUUM will do nothing; in the latter case, it will
-        * process the OID we looked up here, rather than the new one.
-        * Neither is ideal, but there's little practical alternative, since
-        * we're going to commit this transaction and begin a new one between
-        * now and then.
+        * process the OID we looked up here, rather than the new one. Neither
+        * is ideal, but there's little practical alternative, since we're
+        * going to commit this transaction and begin a new one between now
+        * and then.
         */
        relid = RangeVarGetRelid(vacrel, NoLock, false);
 
@@ -471,7 +471,7 @@ vacuum_set_xid_limits(int freeze_min_age,
 
    if (multiXactFrzLimit != NULL)
    {
-       MultiXactId mxLimit;
+       MultiXactId mxLimit;
 
        /*
         * simplistic multixactid freezing: use the same freezing policy as
@@ -711,7 +711,7 @@ vac_update_datfrozenxid(void)
    SysScanDesc scan;
    HeapTuple   classTup;
    TransactionId newFrozenXid;
-   MultiXactId newFrozenMulti;
+   MultiXactId newFrozenMulti;
    bool        dirty = false;
 
    /*
@@ -723,8 +723,8 @@ vac_update_datfrozenxid(void)
    newFrozenXid = GetOldestXmin(true, true);
 
    /*
-    * Similarly, initialize the MultiXact "min" with the value that would
-    * be used on pg_class for new tables.  See AddNewRelationTuple().
+    * Similarly, initialize the MultiXact "min" with the value that would be
+    * used on pg_class for new tables.  See AddNewRelationTuple().
     */
    newFrozenMulti = GetOldestMultiXactId();
 
@@ -900,8 +900,8 @@ vac_truncate_clog(TransactionId frozenXID, MultiXactId frozenMulti)
 
    /*
     * Update the wrap limit for GetNewTransactionId and creation of new
-    * MultiXactIds.  Note: these functions will also signal the postmaster for
-    * an(other) autovac cycle if needed.   XXX should we avoid possibly
+    * MultiXactIds.  Note: these functions will also signal the postmaster
+    * for an(other) autovac cycle if needed.   XXX should we avoid possibly
     * signalling twice?
     */
    SetTransactionIdLimit(frozenXID, oldestxid_datoid);
index 9d304153b8bee4a4cd02701dc70173cdc06a60e1..7e46f9e9343ff94626d7aa92e7446797371faf85 100644 (file)
@@ -78,9 +78,9 @@
  * that the potential for improvement was great enough to merit the cost of
  * supporting them.
  */
-#define VACUUM_TRUNCATE_LOCK_CHECK_INTERVAL        20  /* ms */
-#define VACUUM_TRUNCATE_LOCK_WAIT_INTERVAL     50  /* ms */
-#define VACUUM_TRUNCATE_LOCK_TIMEOUT           5000        /* ms */
+#define VACUUM_TRUNCATE_LOCK_CHECK_INTERVAL        20      /* ms */
+#define VACUUM_TRUNCATE_LOCK_WAIT_INTERVAL     50      /* ms */
+#define VACUUM_TRUNCATE_LOCK_TIMEOUT           5000    /* ms */
 
 /*
  * Guesstimation of number of dead tuples per page.  This is used to
@@ -184,7 +184,7 @@ lazy_vacuum_rel(Relation onerel, VacuumStmt *vacstmt,
    double      new_rel_tuples;
    BlockNumber new_rel_allvisible;
    TransactionId new_frozen_xid;
-   MultiXactId new_min_multi;
+   MultiXactId new_min_multi;
 
    /* measure elapsed time iff autovacuum logging requires it */
    if (IsAutoVacuumWorkerProcess() && Log_autovacuum_min_duration >= 0)
@@ -287,8 +287,8 @@ lazy_vacuum_rel(Relation onerel, VacuumStmt *vacstmt,
 
    /* report results to the stats collector, too */
    pgstat_report_vacuum(RelationGetRelid(onerel),
-                         onerel->rd_rel->relisshared,
-                         new_rel_tuples);
+                        onerel->rd_rel->relisshared,
+                        new_rel_tuples);
 
    /* and log the action if appropriate */
    if (IsAutoVacuumWorkerProcess() && Log_autovacuum_min_duration >= 0)
@@ -315,7 +315,7 @@ lazy_vacuum_rel(Relation onerel, VacuumStmt *vacstmt,
                            "pages: %d removed, %d remain\n"
                            "tuples: %.0f removed, %.0f remain\n"
                            "buffer usage: %d hits, %d misses, %d dirtied\n"
-                   "avg read rate: %.3f MB/s, avg write rate: %.3f MB/s\n"
+                     "avg read rate: %.3f MB/s, avg write rate: %.3f MB/s\n"
                            "system usage: %s",
                            get_database_name(MyDatabaseId),
                            get_namespace_name(RelationGetNamespace(onerel)),
@@ -899,15 +899,15 @@ lazy_scan_heap(Relation onerel, LVRelStats *vacrelstats,
            /*
             * It should never be the case that the visibility map page is set
             * while the page-level bit is clear, but the reverse is allowed
-            * (if checksums are not enabled).  Regardless, set the both bits
+            * (if checksums are not enabled).  Regardless, set the both bits
             * so that we get back in sync.
             *
             * NB: If the heap page is all-visible but the VM bit is not set,
-            * we don't need to dirty the heap page.  However, if checksums are
-            * enabled, we do need to make sure that the heap page is dirtied
-            * before passing it to visibilitymap_set(), because it may be
-            * logged.  Given that this situation should only happen in rare
-            * cases after a crash, it is not worth optimizing.
+            * we don't need to dirty the heap page.  However, if checksums
+            * are enabled, we do need to make sure that the heap page is
+            * dirtied before passing it to visibilitymap_set(), because it
+            * may be logged.  Given that this situation should only happen in
+            * rare cases after a crash, it is not worth optimizing.
             */
            PageSetAllVisible(page);
            MarkBufferDirty(buf);
@@ -1116,7 +1116,7 @@ lazy_vacuum_page(Relation onerel, BlockNumber blkno, Buffer buffer,
    Page        page = BufferGetPage(buffer);
    OffsetNumber unused[MaxOffsetNumber];
    int         uncnt = 0;
-   TransactionId   visibility_cutoff_xid;
+   TransactionId visibility_cutoff_xid;
 
    START_CRIT_SECTION();
 
@@ -1146,8 +1146,8 @@ lazy_vacuum_page(Relation onerel, BlockNumber blkno, Buffer buffer,
    MarkBufferDirty(buffer);
 
    /*
-    * Now that we have removed the dead tuples from the page, once again check
-    * if the page has become all-visible.
+    * Now that we have removed the dead tuples from the page, once again
+    * check if the page has become all-visible.
     */
    if (!visibilitymap_test(onerel, blkno, vmbuffer) &&
        heap_page_is_all_visible(buffer, &visibility_cutoff_xid))
@@ -1155,7 +1155,7 @@ lazy_vacuum_page(Relation onerel, BlockNumber blkno, Buffer buffer,
        Assert(BufferIsValid(*vmbuffer));
        PageSetAllVisible(page);
        visibilitymap_set(onerel, blkno, buffer, InvalidXLogRecPtr, *vmbuffer,
-               visibility_cutoff_xid);
+                         visibility_cutoff_xid);
    }
 
    /* XLOG stuff */
@@ -1660,25 +1660,24 @@ vac_cmp_itemptr(const void *left, const void *right)
 static bool
 heap_page_is_all_visible(Buffer buf, TransactionId *visibility_cutoff_xid)
 {
-   Page         page = BufferGetPage(buf);
+   Page        page = BufferGetPage(buf);
    OffsetNumber offnum,
-                maxoff;
-   bool         all_visible = true;
+               maxoff;
+   bool        all_visible = true;
 
    *visibility_cutoff_xid = InvalidTransactionId;
 
    /*
     * This is a stripped down version of the line pointer scan in
-    * lazy_scan_heap(). So if you change anything here, also check that
-    * code.
+    * lazy_scan_heap(). So if you change anything here, also check that code.
     */
    maxoff = PageGetMaxOffsetNumber(page);
    for (offnum = FirstOffsetNumber;
-           offnum <= maxoff && all_visible;
-           offnum = OffsetNumberNext(offnum))
+        offnum <= maxoff && all_visible;
+        offnum = OffsetNumberNext(offnum))
    {
-       ItemId          itemid;
-       HeapTupleData   tuple;
+       ItemId      itemid;
+       HeapTupleData tuple;
 
        itemid = PageGetItemId(page, offnum);
 
@@ -1689,8 +1688,8 @@ heap_page_is_all_visible(Buffer buf, TransactionId *visibility_cutoff_xid)
        ItemPointerSet(&(tuple.t_self), BufferGetBlockNumber(buf), offnum);
 
        /*
-        * Dead line pointers can have index pointers pointing to them. So they
-        * can't be treated as visible
+        * Dead line pointers can have index pointers pointing to them. So
+        * they can't be treated as visible
         */
        if (ItemIdIsDead(itemid))
        {
@@ -1716,8 +1715,8 @@ heap_page_is_all_visible(Buffer buf, TransactionId *visibility_cutoff_xid)
                    }
 
                    /*
-                    * The inserter definitely committed. But is it old
-                    * enough that everyone sees it as committed?
+                    * The inserter definitely committed. But is it old enough
+                    * that everyone sees it as committed?
                     */
                    xmin = HeapTupleHeaderGetXmin(tuple.t_data);
                    if (!TransactionIdPrecedes(xmin, OldestXmin))
@@ -1743,7 +1742,7 @@ heap_page_is_all_visible(Buffer buf, TransactionId *visibility_cutoff_xid)
                elog(ERROR, "unexpected HeapTupleSatisfiesVacuum result");
                break;
        }
-   }                       /* scan along page */
+   }                           /* scan along page */
 
    return all_visible;
 }
index e1b280a065c2617e2e321c6737d751fc50062f37..9b0cd8c207033203789c5919a3a5d768cae983da 100644 (file)
@@ -959,12 +959,13 @@ CheckValidResultRel(Relation resultRel, CmdType operation)
                            RelationGetRelationName(resultRel))));
            break;
        case RELKIND_VIEW:
+
            /*
             * Okay only if there's a suitable INSTEAD OF trigger.  Messages
             * here should match rewriteHandler.c's rewriteTargetView, except
             * that we omit errdetail because we haven't got the information
-            * handy (and given that we really shouldn't get here anyway,
-            * it's not worth great exertion to get).
+            * handy (and given that we really shouldn't get here anyway, it's
+            * not worth great exertion to get).
             */
            switch (operation)
            {
@@ -1012,8 +1013,8 @@ CheckValidResultRel(Relation resultRel, CmdType operation)
                    if (fdwroutine->ExecForeignInsert == NULL)
                        ereport(ERROR,
                                (errcode(ERRCODE_FEATURE_NOT_SUPPORTED),
-                                errmsg("cannot insert into foreign table \"%s\"",
-                                       RelationGetRelationName(resultRel))));
+                           errmsg("cannot insert into foreign table \"%s\"",
+                                  RelationGetRelationName(resultRel))));
                    break;
                case CMD_UPDATE:
                    if (fdwroutine->ExecForeignUpdate == NULL)
@@ -1026,8 +1027,8 @@ CheckValidResultRel(Relation resultRel, CmdType operation)
                    if (fdwroutine->ExecForeignDelete == NULL)
                        ereport(ERROR,
                                (errcode(ERRCODE_FEATURE_NOT_SUPPORTED),
-                                errmsg("cannot delete from foreign table \"%s\"",
-                                       RelationGetRelationName(resultRel))));
+                           errmsg("cannot delete from foreign table \"%s\"",
+                                  RelationGetRelationName(resultRel))));
                    break;
                default:
                    elog(ERROR, "unrecognized CmdType: %d", (int) operation);
@@ -1391,7 +1392,8 @@ ExecEndPlan(PlanState *planstate, EState *estate)
    }
 
    /*
-    * close any relations selected FOR [KEY] UPDATE/SHARE, again keeping locks
+    * close any relations selected FOR [KEY] UPDATE/SHARE, again keeping
+    * locks
     */
    foreach(l, estate->es_rowMarks)
    {
@@ -1546,9 +1548,9 @@ ExecRelCheck(ResultRelInfo *resultRelInfo,
        qual = resultRelInfo->ri_ConstraintExprs[i];
 
        /*
-        * NOTE: SQL specifies that a NULL result from a constraint
-        * expression is not to be treated as a failure.  Therefore, tell
-        * ExecQual to return TRUE for NULL.
+        * NOTE: SQL specifies that a NULL result from a constraint expression
+        * is not to be treated as a failure.  Therefore, tell ExecQual to
+        * return TRUE for NULL.
         */
        if (!ExecQual(qual, econtext, true))
            return check[i].ccname;
@@ -1901,13 +1903,13 @@ EvalPlanQualFetch(EState *estate, Relation relation, int lockmode,
            /*
             * If tuple was inserted by our own transaction, we have to check
             * cmin against es_output_cid: cmin >= current CID means our
-            * command cannot see the tuple, so we should ignore it.
-            * Otherwise heap_lock_tuple() will throw an error, and so would
-            * any later attempt to update or delete the tuple.  (We need not
-            * check cmax because HeapTupleSatisfiesDirty will consider a
-            * tuple deleted by our transaction dead, regardless of cmax.)
-            * Wee just checked that priorXmax == xmin, so we can test that
-            * variable instead of doing HeapTupleHeaderGetXmin again.
+            * command cannot see the tuple, so we should ignore it. Otherwise
+            * heap_lock_tuple() will throw an error, and so would any later
+            * attempt to update or delete the tuple.  (We need not check cmax
+            * because HeapTupleSatisfiesDirty will consider a tuple deleted
+            * by our transaction dead, regardless of cmax.) Wee just checked
+            * that priorXmax == xmin, so we can test that variable instead of
+            * doing HeapTupleHeaderGetXmin again.
             */
            if (TransactionIdIsCurrentTransactionId(priorXmax) &&
                HeapTupleHeaderGetCmin(tuple.t_data) >= estate->es_output_cid)
@@ -1921,7 +1923,7 @@ EvalPlanQualFetch(EState *estate, Relation relation, int lockmode,
             */
            test = heap_lock_tuple(relation, &tuple,
                                   estate->es_output_cid,
-                                  lockmode, false /* wait */,
+                                  lockmode, false /* wait */ ,
                                   false, &buffer, &hufd);
            /* We now have two pins on the buffer, get rid of one */
            ReleaseBuffer(buffer);
@@ -1929,6 +1931,7 @@ EvalPlanQualFetch(EState *estate, Relation relation, int lockmode,
            switch (test)
            {
                case HeapTupleSelfUpdated:
+
                    /*
                     * The target tuple was already updated or deleted by the
                     * current command, or by a later command in the current
index 494208a0320d430da5d7a933eaa5024d00e4d92d..138818313b7ebe193285dc61da4f65336f5ea6c8 100644 (file)
@@ -4278,7 +4278,7 @@ ExecEvalCurrentOfExpr(ExprState *exprstate, ExprContext *econtext,
 {
    ereport(ERROR,
            (errcode(ERRCODE_FEATURE_NOT_SUPPORTED),
-            errmsg("WHERE CURRENT OF is not supported for this table type")));
+          errmsg("WHERE CURRENT OF is not supported for this table type")));
    return 0;                   /* keep compiler quiet */
 }
 
index dbb4805ae2c875818d828f782f3995c2de714699..12e1b8ef59965faff8aea6a743ac983a8d29a2d8 100644 (file)
@@ -1682,7 +1682,7 @@ check_sql_fn_retval(Oid func_id, Oid rettype, List *queryTreeList,
                                                         rettype,
                                                         -1,
                                                   get_typcollation(rettype),
-                                                        COERCE_IMPLICIT_CAST);
+                                                      COERCE_IMPLICIT_CAST);
                    /* Relabel is dangerous if sort/group or setop column */
                    if (tle->ressortgroupref != 0 || parse->setOperations)
                        *modifyTargetList = true;
@@ -1786,7 +1786,7 @@ check_sql_fn_retval(Oid func_id, Oid rettype, List *queryTreeList,
                                                         atttype,
                                                         -1,
                                                   get_typcollation(atttype),
-                                                        COERCE_IMPLICIT_CAST);
+                                                      COERCE_IMPLICIT_CAST);
                    /* Relabel is dangerous if sort/group or setop column */
                    if (tle->ressortgroupref != 0 || parse->setOperations)
                        *modifyTargetList = true;
index ae2d26b48b4b98c05e875cc640d17da8359726fb..5b5c705a96d1f6545e7c19652e479cd90c0bf55a 100644 (file)
@@ -127,7 +127,7 @@ lnext:
                break;
            default:
                elog(ERROR, "unsupported rowmark type");
-               lockmode = LockTupleNoKeyExclusive; /* keep compiler quiet */
+               lockmode = LockTupleNoKeyExclusive;     /* keep compiler quiet */
                break;
        }
 
@@ -139,6 +139,7 @@ lnext:
        switch (test)
        {
            case HeapTupleSelfUpdated:
+
                /*
                 * The target tuple was already updated or deleted by the
                 * current command, or by a later command in the current
index a6f247e1bc36474fdce98c55ebf8c43cc004affe..e934c7b9ab9dc694315c95a5fe8d13896bd8a44a 100644 (file)
@@ -392,18 +392,19 @@ ldelete:;
        result = heap_delete(resultRelationDesc, tupleid,
                             estate->es_output_cid,
                             estate->es_crosscheck_snapshot,
-                            true /* wait for commit */,
+                            true /* wait for commit */ ,
                             &hufd);
        switch (result)
        {
            case HeapTupleSelfUpdated:
+
                /*
                 * The target tuple was already updated or deleted by the
                 * current command, or by a later command in the current
                 * transaction.  The former case is possible in a join DELETE
-                * where multiple tuples join to the same target tuple.
-                * This is somewhat questionable, but Postgres has always
-                * allowed it: we just ignore additional deletion attempts.
+                * where multiple tuples join to the same target tuple. This
+                * is somewhat questionable, but Postgres has always allowed
+                * it: we just ignore additional deletion attempts.
                 *
                 * The latter case arises if the tuple is modified by a
                 * command in a BEFORE trigger, or perhaps by a command in a
@@ -412,14 +413,14 @@ ldelete:;
                 * proceed.  We don't want to discard the original DELETE
                 * while keeping the triggered actions based on its deletion;
                 * and it would be no better to allow the original DELETE
-                * while discarding updates that it triggered.  The row update
+                * while discarding updates that it triggered.  The row update
                 * carries some information that might be important according
                 * to business rules; so throwing an error is the only safe
                 * course.
                 *
-                * If a trigger actually intends this type of interaction,
-                * it can re-execute the DELETE and then return NULL to
-                * cancel the outer delete.
+                * If a trigger actually intends this type of interaction, it
+                * can re-execute the DELETE and then return NULL to cancel
+                * the outer delete.
                 */
                if (hufd.cmax != estate->es_output_cid)
                    ereport(ERROR,
@@ -646,7 +647,7 @@ ExecUpdate(ItemPointer tupleid,
    }
    else
    {
-       LockTupleMode   lockmode;
+       LockTupleMode lockmode;
 
        /*
         * Check the constraints of the tuple
@@ -673,19 +674,20 @@ lreplace:;
        result = heap_update(resultRelationDesc, tupleid, tuple,
                             estate->es_output_cid,
                             estate->es_crosscheck_snapshot,
-                            true /* wait for commit */,
+                            true /* wait for commit */ ,
                             &hufd, &lockmode);
        switch (result)
        {
            case HeapTupleSelfUpdated:
+
                /*
                 * The target tuple was already updated or deleted by the
                 * current command, or by a later command in the current
                 * transaction.  The former case is possible in a join UPDATE
-                * where multiple tuples join to the same target tuple.
-                * This is pretty questionable, but Postgres has always
-                * allowed it: we just execute the first update action and
-                * ignore additional update attempts.
+                * where multiple tuples join to the same target tuple. This
+                * is pretty questionable, but Postgres has always allowed it:
+                * we just execute the first update action and ignore
+                * additional update attempts.
                 *
                 * The latter case arises if the tuple is modified by a
                 * command in a BEFORE trigger, or perhaps by a command in a
@@ -697,9 +699,9 @@ lreplace:;
                 * previous ones.  So throwing an error is the only safe
                 * course.
                 *
-                * If a trigger actually intends this type of interaction,
-                * it can re-execute the UPDATE (assuming it can figure out
-                * how) and then return NULL to cancel the outer update.
+                * If a trigger actually intends this type of interaction, it
+                * can re-execute the UPDATE (assuming it can figure out how)
+                * and then return NULL to cancel the outer update.
                 */
                if (hufd.cmax != estate->es_output_cid)
                    ereport(ERROR,
index c4edec0750b2b1ecbbdd3381039177b3b5e22c1b..366e784bb0da2b8e413f4f3f95cbb43719f50ae7 100644 (file)
@@ -132,7 +132,7 @@ InitScanRelation(SeqScanState *node, EState *estate, int eflags)
     * open that relation and acquire appropriate lock on it.
     */
    currentRelation = ExecOpenScanRelation(estate,
-                                    ((SeqScan *) node->ps.plan)->scanrelid,
+                                     ((SeqScan *) node->ps.plan)->scanrelid,
                                           eflags);
 
    /* initialize a heapscan */
index ca0d05d2cc0fae877a8c7b37205683f33eeb6315..2f9a94d01e5c40e2805fd5caf77099822ca5aa5a 100644 (file)
@@ -1570,7 +1570,7 @@ SPI_result_code_string(int code)
  * CachedPlanSources.
  *
  * This is exported so that pl/pgsql can use it (this beats letting pl/pgsql
- * look directly into the SPIPlan for itself).  It's not documented in
+ * look directly into the SPIPlan for itself). It's not documented in
  * spi.sgml because we'd just as soon not have too many places using this.
  */
 List *
@@ -1586,7 +1586,7 @@ SPI_plan_get_plan_sources(SPIPlanPtr plan)
  * return NULL.  Caller is responsible for doing ReleaseCachedPlan().
  *
  * This is exported so that pl/pgsql can use it (this beats letting pl/pgsql
- * look directly into the SPIPlan for itself).  It's not documented in
+ * look directly into the SPIPlan for itself). It's not documented in
  * spi.sgml because we'd just as soon not have too many places using this.
  */
 CachedPlan *
@@ -1971,7 +1971,7 @@ _SPI_execute_plan(SPIPlanPtr plan, ParamListInfo paramLI,
                stmt_list = pg_analyze_and_rewrite_params(parsetree,
                                                          src,
                                                          plan->parserSetup,
-                                                         plan->parserSetupArg);
+                                                      plan->parserSetupArg);
            }
            else
            {
@@ -1990,7 +1990,7 @@ _SPI_execute_plan(SPIPlanPtr plan, ParamListInfo paramLI,
                               plan->parserSetup,
                               plan->parserSetupArg,
                               plan->cursor_options,
-                              false);      /* not fixed result */
+                              false);  /* not fixed result */
        }
 
        /*
index 2c6f85ca536246819029350d1f0eb5972c9be4d9..4b4fc945c32e7b74c8721cb5942ce44a47f7384b 100644 (file)
@@ -35,7 +35,7 @@ binaryheap_allocate(int capacity, binaryheap_comparator compare, void *arg)
    int         sz;
    binaryheap *heap;
 
-   sz = offsetof(binaryheap, bh_nodes) + sizeof(Datum) * capacity;
+   sz = offsetof(binaryheap, bh_nodes) +sizeof(Datum) * capacity;
    heap = palloc(sz);
    heap->bh_size = 0;
    heap->bh_space = capacity;
@@ -203,7 +203,7 @@ binaryheap_replace_first(binaryheap *heap, Datum d)
 static inline void
 swap_nodes(binaryheap *heap, int a, int b)
 {
-   Datum   swap;
+   Datum       swap;
 
    swap = heap->bh_nodes[a];
    heap->bh_nodes[a] = heap->bh_nodes[b];
index 3a041d9d58a2af045d81ae090d52944fd04bf076..415b614e48b826f353d6f48ca508835b90001991 100644 (file)
@@ -827,7 +827,7 @@ pg_krb5_recvauth(Port *port)
        return ret;
 
    retval = krb5_recvauth(pg_krb5_context, &auth_context,
-                          (krb5_pointer) &port->sock, pg_krb_srvnam,
+                          (krb5_pointer) & port->sock, pg_krb_srvnam,
                           pg_krb5_server, 0, pg_krb5_keytab, &ticket);
    if (retval)
    {
@@ -2057,7 +2057,7 @@ InitializeLDAPConnection(Port *port, LDAP **ldap)
    {
        ldap_unbind(*ldap);
        ereport(LOG,
-         (errmsg("could not set LDAP protocol version: %s", ldap_err2string(r))));
+               (errmsg("could not set LDAP protocol version: %s", ldap_err2string(r))));
        return STATUS_ERROR;
    }
 
@@ -2110,7 +2110,7 @@ InitializeLDAPConnection(Port *port, LDAP **ldap)
        {
            ldap_unbind(*ldap);
            ereport(LOG,
-            (errmsg("could not start LDAP TLS session: %s", ldap_err2string(r))));
+                   (errmsg("could not start LDAP TLS session: %s", ldap_err2string(r))));
            return STATUS_ERROR;
        }
    }
@@ -2201,7 +2201,7 @@ CheckLDAPAuth(Port *port)
        {
            ereport(LOG,
                    (errmsg("could not perform initial LDAP bind for ldapbinddn \"%s\" on server \"%s\": %s",
-                         port->hba->ldapbinddn, port->hba->ldapserver, ldap_err2string(r))));
+                           port->hba->ldapbinddn, port->hba->ldapserver, ldap_err2string(r))));
            return STATUS_ERROR;
        }
 
@@ -2226,7 +2226,7 @@ CheckLDAPAuth(Port *port)
        {
            ereport(LOG,
                    (errmsg("could not search LDAP for filter \"%s\" on server \"%s\": %s",
-                           filter, port->hba->ldapserver, ldap_err2string(r))));
+                       filter, port->hba->ldapserver, ldap_err2string(r))));
            pfree(filter);
            return STATUS_ERROR;
        }
@@ -2236,16 +2236,16 @@ CheckLDAPAuth(Port *port)
        {
            if (count == 0)
                ereport(LOG,
-                       (errmsg("LDAP user \"%s\" does not exist", port->user_name),
-                        errdetail("LDAP search for filter \"%s\" on server \"%s\" returned no entries.",
-                                  filter, port->hba->ldapserver)));
+                (errmsg("LDAP user \"%s\" does not exist", port->user_name),
+                 errdetail("LDAP search for filter \"%s\" on server \"%s\" returned no entries.",
+                           filter, port->hba->ldapserver)));
            else
                ereport(LOG,
-                       (errmsg("LDAP user \"%s\" is not unique", port->user_name),
-                        errdetail_plural("LDAP search for filter \"%s\" on server \"%s\" returned %d entry.",
-                                         "LDAP search for filter \"%s\" on server \"%s\" returned %d entries.",
-                                         count,
-                                         filter, port->hba->ldapserver, count)));
+                 (errmsg("LDAP user \"%s\" is not unique", port->user_name),
+                  errdetail_plural("LDAP search for filter \"%s\" on server \"%s\" returned %d entry.",
+                                   "LDAP search for filter \"%s\" on server \"%s\" returned %d entries.",
+                                   count,
+                                   filter, port->hba->ldapserver, count)));
 
            pfree(filter);
            ldap_msgfree(search_message);
@@ -2317,8 +2317,8 @@ CheckLDAPAuth(Port *port)
    if (r != LDAP_SUCCESS)
    {
        ereport(LOG,
-               (errmsg("LDAP login failed for user \"%s\" on server \"%s\": %s",
-                       fulluser, port->hba->ldapserver, ldap_err2string(r))));
+           (errmsg("LDAP login failed for user \"%s\" on server \"%s\": %s",
+                   fulluser, port->hba->ldapserver, ldap_err2string(r))));
        pfree(fulluser);
        return STATUS_ERROR;
    }
index 5b60d1c3c535ec1f9c51c64331277627ca2a25a3..e946a4659f29e470875f5e09bbcdff42f70b7830 100644 (file)
@@ -397,12 +397,12 @@ tokenize_file(const char *filename, FILE *file,
 
    while (!feof(file) && !ferror(file))
    {
-       char rawline[MAX_LINE];
-       char *lineptr;
+       char        rawline[MAX_LINE];
+       char       *lineptr;
 
        if (!fgets(rawline, sizeof(rawline), file))
            break;
-       if (strlen(rawline) == MAX_LINE-1)
+       if (strlen(rawline) == MAX_LINE - 1)
            /* Line too long! */
            ereport(ERROR,
                    (errcode(ERRCODE_CONFIG_FILE_ERROR),
@@ -411,9 +411,9 @@ tokenize_file(const char *filename, FILE *file,
                                line_number, filename)));
 
        /* Strip trailing linebreak from rawline */
-       while (rawline[strlen(rawline)-1] == '\n' ||
-              rawline[strlen(rawline)-1] == '\r')
-           rawline[strlen(rawline)-1] = '\0';
+       while (rawline[strlen(rawline) - 1] == '\n' ||
+              rawline[strlen(rawline) - 1] == '\r')
+           rawline[strlen(rawline) - 1] = '\0';
 
        lineptr = rawline;
        while (strlen(lineptr) > 0)
@@ -1476,7 +1476,7 @@ parse_hba_auth_opt(char *name, char *val, HbaLine *hbaline, int line_num)
    {
 #ifdef LDAP_API_FEATURE_X_OPENLDAP
        LDAPURLDesc *urldata;
-       int rc;
+       int         rc;
 #endif
 
        REQUIRE_AUTH_OPTION(uaLDAP, "ldapurl", "ldap");
@@ -1485,8 +1485,8 @@ parse_hba_auth_opt(char *name, char *val, HbaLine *hbaline, int line_num)
        if (rc != LDAP_SUCCESS)
        {
            ereport(LOG,
-                (errcode(ERRCODE_CONFIG_FILE_ERROR),
-                 errmsg("could not parse LDAP URL \"%s\": %s", val, ldap_err2string(rc))));
+                   (errcode(ERRCODE_CONFIG_FILE_ERROR),
+                    errmsg("could not parse LDAP URL \"%s\": %s", val, ldap_err2string(rc))));
            return false;
        }
 
@@ -1494,7 +1494,7 @@ parse_hba_auth_opt(char *name, char *val, HbaLine *hbaline, int line_num)
        {
            ereport(LOG,
                    (errcode(ERRCODE_CONFIG_FILE_ERROR),
-                    errmsg("unsupported LDAP URL scheme: %s", urldata->lud_scheme)));
+           errmsg("unsupported LDAP URL scheme: %s", urldata->lud_scheme)));
            ldap_free_urldesc(urldata);
            return false;
        }
@@ -1504,7 +1504,7 @@ parse_hba_auth_opt(char *name, char *val, HbaLine *hbaline, int line_num)
        hbaline->ldapbasedn = pstrdup(urldata->lud_dn);
 
        if (urldata->lud_attrs)
-           hbaline->ldapsearchattribute = pstrdup(urldata->lud_attrs[0]);  /* only use first one */
+           hbaline->ldapsearchattribute = pstrdup(urldata->lud_attrs[0]);      /* only use first one */
        hbaline->ldapscope = urldata->lud_scope;
        if (urldata->lud_filter)
        {
@@ -1515,11 +1515,11 @@ parse_hba_auth_opt(char *name, char *val, HbaLine *hbaline, int line_num)
            return false;
        }
        ldap_free_urldesc(urldata);
-#else /* not OpenLDAP */
+#else                          /* not OpenLDAP */
        ereport(LOG,
                (errcode(ERRCODE_FEATURE_NOT_SUPPORTED),
                 errmsg("LDAP URLs not supported on this platform")));
-#endif /* not OpenLDAP */
+#endif   /* not OpenLDAP */
    }
    else if (strcmp(name, "ldaptls") == 0)
    {
@@ -2023,7 +2023,7 @@ check_ident_usermap(IdentLine *identLine, const char *usermap_name,
                ereport(LOG,
                        (errcode(ERRCODE_INVALID_REGULAR_EXPRESSION),
                         errmsg("regular expression \"%s\" has no subexpressions as requested by backreference in \"%s\"",
-                               identLine->ident_user + 1, identLine->pg_role)));
+                           identLine->ident_user + 1, identLine->pg_role)));
                *error_p = true;
                return;
            }
@@ -2165,7 +2165,7 @@ load_ident(void)
    MemoryContext linecxt;
    MemoryContext oldcxt;
    MemoryContext ident_context;
-   IdentLine    *newline;
+   IdentLine  *newline;
 
    file = AllocateFile(IdentFileName, "r");
    if (file == NULL)
@@ -2183,10 +2183,10 @@ load_ident(void)
 
    /* Now parse all the lines */
    ident_context = AllocSetContextCreate(TopMemoryContext,
-                                  "ident parser context",
-                                  ALLOCSET_DEFAULT_MINSIZE,
-                                  ALLOCSET_DEFAULT_MINSIZE,
-                                  ALLOCSET_DEFAULT_MAXSIZE);
+                                         "ident parser context",
+                                         ALLOCSET_DEFAULT_MINSIZE,
+                                         ALLOCSET_DEFAULT_MINSIZE,
+                                         ALLOCSET_DEFAULT_MAXSIZE);
    oldcxt = MemoryContextSwitchTo(ident_context);
    forboth(line_cell, ident_lines, num_cell, ident_line_nums)
    {
index 61dde51f55ca2c4f1b2259192d87a351769c513d..76aac975528fe0b045194f928dbb90b56d4ba23d 100644 (file)
@@ -808,7 +808,7 @@ pq_set_nonblocking(bool nonblocking)
    {
        if (!pg_set_noblock(MyProcPort->sock))
            ereport(COMMERROR,
-                 (errmsg("could not set socket to nonblocking mode: %m")));
+                   (errmsg("could not set socket to nonblocking mode: %m")));
    }
    else
    {
index a77e05da90f15dca67691f2ecfbc079f3c8981ee..8ea6c1f387405a23059a021f89602d827528dfde 100644 (file)
@@ -170,7 +170,7 @@ main(int argc, char *argv[])
 
 #ifdef EXEC_BACKEND
    if (argc > 1 && strncmp(argv[1], "--fork", 6) == 0)
-       SubPostmasterMain(argc, argv); /* does not return */
+       SubPostmasterMain(argc, argv);  /* does not return */
 #endif
 
 #ifdef WIN32
@@ -191,10 +191,10 @@ main(int argc, char *argv[])
    else if (argc > 1 && strcmp(argv[1], "--single") == 0)
        PostgresMain(argc, argv,
                     NULL,      /* no dbname */
-                    get_current_username(progname)); /* does not return */
+                    get_current_username(progname));   /* does not return */
    else
-       PostmasterMain(argc, argv); /* does not return */
-   abort();                        /* should not get here */
+       PostmasterMain(argc, argv);     /* does not return */
+   abort();                    /* should not get here */
 }
 
 
index afae948a61f3d7026c50f71e4a7c89e1fc5a409e..9f6d5e478aab3c53f18141995ec989f950831ee4 100644 (file)
@@ -47,7 +47,6 @@ int
 cx(PlannerInfo *root, Gene *tour1, Gene *tour2, Gene *offspring,
    int num_gene, City *city_table)
 {
-
    int         i,
                start_pos,
                curr_pos;
index 808ff6a14c91ac1acd530c1c7427507049313fa1..99289bc11f5a08b43f55252ce0b10090ded852e6 100644 (file)
@@ -46,7 +46,6 @@ void
 px(PlannerInfo *root, Gene *tour1, Gene *tour2, Gene *offspring, int num_gene,
    City *city_table)
 {
-
    int         num_positions;
    int         i,
                pos,
index 105718ff371cb0e980f3860161277317511ca767..742177f45707c657d4ffa7e915be896eded2b6dd 100644 (file)
@@ -721,7 +721,7 @@ set_append_rel_pathlist(PlannerInfo *root, RelOptInfo *rel,
         */
        if (childrel->cheapest_total_path->param_info == NULL)
            subpaths = accumulate_append_subpath(subpaths,
-                                            childrel->cheapest_total_path);
+                                             childrel->cheapest_total_path);
        else
            subpaths_valid = false;
 
index 8d2490208d447f1b1498e20b37586bb7d9f49686..3507f18007e967da6ca24e2a0fb56db527055667 100644 (file)
@@ -69,7 +69,7 @@
 #include "postgres.h"
 
 #ifdef _MSC_VER
-#include <float.h> /* for _isnan */
+#include <float.h>             /* for _isnan */
 #endif
 #include <math.h>
 
@@ -3745,7 +3745,7 @@ set_subquery_size_estimates(PlannerInfo *root, RelOptInfo *rel)
         * The subquery could be an expansion of a view that's had columns
         * added to it since the current query was parsed, so that there are
         * non-junk tlist columns in it that don't correspond to any column
-        * visible at our query level.  Ignore such columns.
+        * visible at our query level.  Ignore such columns.
         */
        if (te->resno < rel->min_attr || te->resno > rel->max_attr)
            continue;
index cbb4f5cd95604e1cffa52b6563c089f10e868511..711b161c0d1bb2366224063ed56feab8d92203dc 100644 (file)
@@ -294,7 +294,7 @@ process_equivalence(PlannerInfo *root, RestrictInfo *restrictinfo,
 
        /*
         * We add ec2's items to ec1, then set ec2's ec_merged link to point
-        * to ec1 and remove ec2 from the eq_classes list.  We cannot simply
+        * to ec1 and remove ec2 from the eq_classes list.  We cannot simply
         * delete ec2 because that could leave dangling pointers in existing
         * PathKeys.  We leave it behind with a link so that the merged EC can
         * be found.
@@ -2083,9 +2083,9 @@ generate_implied_equalities_for_column(PlannerInfo *root,
            continue;
 
        /*
-        * Scan members, looking for a match to the target column.  Note
-        * that child EC members are considered, but only when they belong to
-        * the target relation.  (Unlike regular members, the same expression
+        * Scan members, looking for a match to the target column.  Note that
+        * child EC members are considered, but only when they belong to the
+        * target relation.  (Unlike regular members, the same expression
         * could be a child member of more than one EC.  Therefore, it's
         * potentially order-dependent which EC a child relation's target
         * column gets matched to.  This is annoying but it only happens in
index d74603983bce4e5ecec21cad8b5a570088186f26..65eb344cde449b9cfeab3da87672ff06734b7d1b 100644 (file)
@@ -250,7 +250,7 @@ create_index_paths(PlannerInfo *root, RelOptInfo *rel)
     * If there are any rels that have LATERAL references to this one, we
     * cannot use join quals referencing them as index quals for this one,
     * since such rels would have to be on the inside not the outside of a
-    * nestloop join relative to this one.  Create a Relids set listing all
+    * nestloop join relative to this one.  Create a Relids set listing all
     * such rels, for use in checks of potential join clauses.
     */
    lateral_referencers = NULL;
@@ -482,7 +482,7 @@ consider_index_join_clauses(PlannerInfo *root, RelOptInfo *rel,
     *
     * For simplicity in selecting relevant clauses, we represent each set of
     * outer rels as a maximum set of clause_relids --- that is, the indexed
-    * relation itself is also included in the relids set.  considered_relids
+    * relation itself is also included in the relids set.  considered_relids
     * lists all relids sets we've already tried.
     */
    for (indexcol = 0; indexcol < index->ncolumns; indexcol++)
@@ -557,7 +557,7 @@ consider_index_join_outer_rels(PlannerInfo *root, RelOptInfo *rel,
         */
        foreach(lc2, *considered_relids)
        {
-           Relids  oldrelids = (Relids) lfirst(lc2);
+           Relids      oldrelids = (Relids) lfirst(lc2);
 
            /*
             * If either is a subset of the other, no new set is possible.
@@ -571,7 +571,7 @@ consider_index_join_outer_rels(PlannerInfo *root, RelOptInfo *rel,
            /*
             * If this clause was derived from an equivalence class, the
             * clause list may contain other clauses derived from the same
-            * eclass.  We should not consider that combining this clause with
+            * eclass.  We should not consider that combining this clause with
             * one of those clauses generates a usefully different
             * parameterization; so skip if any clause derived from the same
             * eclass would already have been included when using oldrelids.
@@ -654,9 +654,9 @@ get_join_index_paths(PlannerInfo *root, RelOptInfo *rel,
        }
 
        /*
-        * Add applicable eclass join clauses.  The clauses generated for each
+        * Add applicable eclass join clauses.  The clauses generated for each
         * column are redundant (cf generate_implied_equalities_for_column),
-        * so we need at most one.  This is the only exception to the general
+        * so we need at most one.  This is the only exception to the general
         * rule of using all available index clauses.
         */
        foreach(lc, eclauseset->indexclauses[indexcol])
@@ -2630,8 +2630,8 @@ check_partial_indexes(PlannerInfo *root, RelOptInfo *rel)
        return;
 
    /*
-    * Construct a list of clauses that we can assume true for the purpose
-    * of proving the index(es) usable.  Restriction clauses for the rel are
+    * Construct a list of clauses that we can assume true for the purpose of
+    * proving the index(es) usable.  Restriction clauses for the rel are
     * always usable, and so are any join clauses that are "movable to" this
     * rel.  Also, we can consider any EC-derivable join clauses (which must
     * be "movable to" this rel, by definition).
@@ -2653,8 +2653,8 @@ check_partial_indexes(PlannerInfo *root, RelOptInfo *rel)
    /*
     * Add on any equivalence-derivable join clauses.  Computing the correct
     * relid sets for generate_join_implied_equalities is slightly tricky
-    * because the rel could be a child rel rather than a true baserel, and
-    * in that case we must remove its parent's relid from all_baserels.
+    * because the rel could be a child rel rather than a true baserel, and in
+    * that case we must remove its parent's relid from all_baserels.
     */
    if (rel->reloptkind == RELOPT_OTHER_MEMBER_REL)
    {
@@ -2671,8 +2671,8 @@ check_partial_indexes(PlannerInfo *root, RelOptInfo *rel)
        clauselist =
            list_concat(clauselist,
                        generate_join_implied_equalities(root,
-                                                        bms_union(rel->relids,
-                                                                  otherrels),
+                                                      bms_union(rel->relids,
+                                                                otherrels),
                                                         otherrels,
                                                         rel));
 
index e1d6b3e223451ec706d53f749ad87f4ae20a2521..d6050a616c73093b0b10c9c454ddd85829353b6d 100644 (file)
@@ -154,7 +154,7 @@ add_paths_to_joinrel(PlannerInfo *root,
     * However, when a LATERAL subquery is involved, we have to be a bit
     * laxer, because there will simply not be any paths for the joinrel that
     * aren't parameterized by whatever the subquery is parameterized by,
-    * unless its parameterization is resolved within the joinrel.  Hence, add
+    * unless its parameterization is resolved within the joinrel.  Hence, add
     * to param_source_rels anything that is laterally referenced in either
     * input and is not in the join already.
     */
@@ -507,7 +507,7 @@ sort_inner_and_outer(PlannerInfo *root,
     * sort.
     *
     * This function intentionally does not consider parameterized input
-    * paths, except when the cheapest-total is parameterized.  If we did so,
+    * paths, except when the cheapest-total is parameterized.  If we did so,
     * we'd have a combinatorial explosion of mergejoin paths of dubious
     * value.  This interacts with decisions elsewhere that also discriminate
     * against mergejoins with parameterized inputs; see comments in
index 6f64695e990e993ad1661f4480a94c62082e2bf3..a7db69c85bfabc95e37196398e4f18c57969fbe3 100644 (file)
@@ -355,7 +355,7 @@ remove_rel_from_query(PlannerInfo *root, int relid, Relids joinrelids)
     * Likewise remove references from LateralJoinInfo data structures.
     *
     * If we are deleting a LATERAL subquery, we can forget its
-    * LateralJoinInfo altogether.  Otherwise, make sure the target is not
+    * LateralJoinInfo altogether.  Otherwise, make sure the target is not
     * included in any lateral_lhs set.  (It probably can't be, since that
     * should have precluded deciding to remove it; but let's cope anyway.)
     */
index 84ca67473bbd15791c3f1790305be3481cd814f3..839ed9dde4049a7bff81d6909776f0ba3e4550a9 100644 (file)
@@ -315,12 +315,12 @@ extract_lateral_references(PlannerInfo *root, RelOptInfo *brel, Index rtindex)
    newvars = NIL;
    foreach(lc, vars)
    {
-       Node   *node = (Node *) lfirst(lc);
+       Node       *node = (Node *) lfirst(lc);
 
        node = copyObject(node);
        if (IsA(node, Var))
        {
-           Var    *var = (Var *) node;
+           Var        *var = (Var *) node;
 
            /* Adjustment is easy since it's just one node */
            var->varlevelsup = 0;
@@ -328,7 +328,7 @@ extract_lateral_references(PlannerInfo *root, RelOptInfo *brel, Index rtindex)
        else if (IsA(node, PlaceHolderVar))
        {
            PlaceHolderVar *phv = (PlaceHolderVar *) node;
-           int     levelsup = phv->phlevelsup;
+           int         levelsup = phv->phlevelsup;
 
            /* Have to work harder to adjust the contained expression too */
            if (levelsup != 0)
@@ -389,7 +389,7 @@ create_lateral_join_info(PlannerInfo *root)
    {
        RelOptInfo *brel = root->simple_rel_array[rti];
        Relids      lateral_relids;
-       ListCell *lc;
+       ListCell   *lc;
 
        /* there may be empty slots corresponding to non-baserel RTEs */
        if (brel == NULL)
@@ -406,11 +406,11 @@ create_lateral_join_info(PlannerInfo *root)
        /* consider each laterally-referenced Var or PHV */
        foreach(lc, brel->lateral_vars)
        {
-           Node   *node = (Node *) lfirst(lc);
+           Node       *node = (Node *) lfirst(lc);
 
            if (IsA(node, Var))
            {
-               Var    *var = (Var *) node;
+               Var        *var = (Var *) node;
 
                add_lateral_info(root, rti, bms_make_singleton(var->varno));
                lateral_relids = bms_add_member(lateral_relids,
@@ -439,7 +439,7 @@ create_lateral_join_info(PlannerInfo *root)
         * If it's an appendrel parent, copy its lateral_relids to each child
         * rel.  We intentionally give each child rel the same minimum
         * parameterization, even though it's quite possible that some don't
-        * reference all the lateral rels.  This is because any append path
+        * reference all the lateral rels.  This is because any append path
         * for the parent will have to have the same parameterization for
         * every child anyway, and there's no value in forcing extra
         * reparameterize_path() calls.
@@ -466,7 +466,7 @@ create_lateral_join_info(PlannerInfo *root)
  * add_lateral_info
  *     Add a LateralJoinInfo to root->lateral_info_list, if needed
  *
- * We suppress redundant list entries.  The passed lhs set must be freshly
+ * We suppress redundant list entries. The passed lhs set must be freshly
  * made; we free it if not used in a new list entry.
  */
 static void
@@ -861,11 +861,11 @@ make_outerjoininfo(PlannerInfo *root,
    Assert(jointype != JOIN_RIGHT);
 
    /*
-    * Presently the executor cannot support FOR [KEY] UPDATE/SHARE marking of rels
-    * appearing on the nullable side of an outer join. (It's somewhat unclear
-    * what that would mean, anyway: what should we mark when a result row is
-    * generated from no element of the nullable relation?)  So, complain if
-    * any nullable rel is FOR [KEY] UPDATE/SHARE.
+    * Presently the executor cannot support FOR [KEY] UPDATE/SHARE marking of
+    * rels appearing on the nullable side of an outer join. (It's somewhat
+    * unclear what that would mean, anyway: what should we mark when a result
+    * row is generated from no element of the nullable relation?)  So,
+    * complain if any nullable rel is FOR [KEY] UPDATE/SHARE.
     *
     * You might be wondering why this test isn't made far upstream in the
     * parser.  It's because the parser hasn't got enough info --- consider
@@ -1721,7 +1721,7 @@ distribute_restrictinfo_to_rels(PlannerInfo *root,
  * that provides all its variables.
  *
  * "nullable_relids" is the set of relids used in the expressions that are
- * potentially nullable below the expressions.  (This has to be supplied by
+ * potentially nullable below the expressions. (This has to be supplied by
  * caller because this function is used after deconstruct_jointree, so we
  * don't have knowledge of where the clause items came from.)
  *
index 5bbfd2377eb7ce87aefef1c30d8f9554c9852cca..090ae0b494c79b211360706d38138edaeaba1c83 100644 (file)
@@ -260,8 +260,8 @@ optimize_minmax_aggregates(PlannerInfo *root, List *tlist,
     * We have to replace Aggrefs with Params in equivalence classes too, else
     * ORDER BY or DISTINCT on an optimized aggregate will fail.  We don't
     * need to process child eclass members though, since they aren't of
-    * interest anymore --- and replace_aggs_with_params_mutator isn't able
-    * to handle Aggrefs containing translated child Vars, anyway.
+    * interest anymore --- and replace_aggs_with_params_mutator isn't able to
+    * handle Aggrefs containing translated child Vars, anyway.
     *
     * Note: at some point it might become necessary to mutate other data
     * structures too, such as the query's sortClause or distinctClause. Right
index df274fe783081ab3771c0370c99387fe08a5dba2..d80c26420fa97ea883928bc33b55f2a477e6d72f 100644 (file)
@@ -52,9 +52,9 @@ planner_hook_type planner_hook = NULL;
 #define EXPRKIND_QUAL          0
 #define EXPRKIND_TARGET            1
 #define EXPRKIND_RTFUNC            2
-#define EXPRKIND_RTFUNC_LATERAL    3
+#define EXPRKIND_RTFUNC_LATERAL 3
 #define EXPRKIND_VALUES            4
-#define EXPRKIND_VALUES_LATERAL    5
+#define EXPRKIND_VALUES_LATERAL 5
 #define EXPRKIND_LIMIT         6
 #define EXPRKIND_APPINFO       7
 #define EXPRKIND_PHV           8
@@ -571,9 +571,9 @@ subquery_planner(PlannerGlobal *glob, Query *parse,
                returningLists = NIL;
 
            /*
-            * If there was a FOR [KEY] UPDATE/SHARE clause, the LockRows node will
-            * have dealt with fetching non-locked marked rows, else we need
-            * to have ModifyTable do that.
+            * If there was a FOR [KEY] UPDATE/SHARE clause, the LockRows node
+            * will have dealt with fetching non-locked marked rows, else we
+            * need to have ModifyTable do that.
             */
            if (parse->rowMarks)
                rowMarks = NIL;
@@ -964,8 +964,8 @@ inheritance_planner(PlannerInfo *root)
    root->simple_rel_array = save_rel_array;
 
    /*
-    * If there was a FOR [KEY] UPDATE/SHARE clause, the LockRows node will have
-    * dealt with fetching non-locked marked rows, else we need to have
+    * If there was a FOR [KEY] UPDATE/SHARE clause, the LockRows node will
+    * have dealt with fetching non-locked marked rows, else we need to have
     * ModifyTable do that.
     */
    if (parse->rowMarks)
@@ -1060,7 +1060,7 @@ grouping_planner(PlannerInfo *root, double tuple_fraction)
         */
        current_pathkeys = make_pathkeys_for_sortclauses(root,
                                                         set_sortclauses,
-                                                    result_plan->targetlist);
+                                                   result_plan->targetlist);
 
        /*
         * We should not need to call preprocess_targetlist, since we must be
@@ -1075,8 +1075,8 @@ grouping_planner(PlannerInfo *root, double tuple_fraction)
                                        tlist);
 
        /*
-        * Can't handle FOR [KEY] UPDATE/SHARE here (parser should have checked
-        * already, but let's make sure).
+        * Can't handle FOR [KEY] UPDATE/SHARE here (parser should have
+        * checked already, but let's make sure).
         */
        if (parse->rowMarks)
            ereport(ERROR,
@@ -1485,7 +1485,7 @@ grouping_planner(PlannerInfo *root, double tuple_fraction)
             * it's not worth trying to avoid it.  In particular, think not to
             * skip adding the Result if the initial window_tlist matches the
             * top-level plan node's output, because we might change the tlist
-            * inside the following loop.)  Note that on second and subsequent
+            * inside the following loop.)  Note that on second and subsequent
             * passes through the following loop, the top-level node will be a
             * WindowAgg which we know can project; so we only need to check
             * once.
@@ -1500,14 +1500,14 @@ grouping_planner(PlannerInfo *root, double tuple_fraction)
 
            /*
             * The "base" targetlist for all steps of the windowing process is
-            * a flat tlist of all Vars and Aggs needed in the result.  (In
+            * a flat tlist of all Vars and Aggs needed in the result.  (In
             * some cases we wouldn't need to propagate all of these all the
             * way to the top, since they might only be needed as inputs to
             * WindowFuncs.  It's probably not worth trying to optimize that
             * though.)  We also add window partitioning and sorting
             * expressions to the base tlist, to ensure they're computed only
             * once at the bottom of the stack (that's critical for volatile
-            * functions).  As we climb up the stack, we'll add outputs for
+            * functions).  As we climb up the stack, we'll add outputs for
             * the WindowFuncs computed at each level.
             */
            window_tlist = make_windowInputTargetList(root,
@@ -1516,7 +1516,7 @@ grouping_planner(PlannerInfo *root, double tuple_fraction)
 
            /*
             * The copyObject steps here are needed to ensure that each plan
-            * node has a separately modifiable tlist.  (XXX wouldn't a
+            * node has a separately modifiable tlist.  (XXX wouldn't a
             * shallow list copy do for that?)
             */
            result_plan->targetlist = (List *) copyObject(window_tlist);
@@ -1543,7 +1543,7 @@ grouping_planner(PlannerInfo *root, double tuple_fraction)
                 * plan's tlist for any partitioning or ordering columns that
                 * aren't plain Vars.  (In theory, make_windowInputTargetList
                 * should have provided all such columns, but let's not assume
-                * that here.)  Furthermore, this way we can use existing
+                * that here.)  Furthermore, this way we can use existing
                 * infrastructure to identify which input columns are the
                 * interesting ones.
                 */
@@ -1741,9 +1741,9 @@ grouping_planner(PlannerInfo *root, double tuple_fraction)
    }
 
    /*
-    * If there is a FOR [KEY] UPDATE/SHARE clause, add the LockRows node. (Note: we
-    * intentionally test parse->rowMarks not root->rowMarks here. If there
-    * are only non-locking rowmarks, they should be handled by the
+    * If there is a FOR [KEY] UPDATE/SHARE clause, add the LockRows node.
+    * (Note: we intentionally test parse->rowMarks not root->rowMarks here.
+    * If there are only non-locking rowmarks, they should be handled by the
     * ModifyTable node instead.)
     */
    if (parse->rowMarks)
@@ -1927,9 +1927,9 @@ preprocess_rowmarks(PlannerInfo *root)
    if (parse->rowMarks)
    {
        /*
-        * We've got trouble if FOR [KEY] UPDATE/SHARE appears inside grouping,
-        * since grouping renders a reference to individual tuple CTIDs
-        * invalid.  This is also checked at parse time, but that's
+        * We've got trouble if FOR [KEY] UPDATE/SHARE appears inside
+        * grouping, since grouping renders a reference to individual tuple
+        * CTIDs invalid.  This is also checked at parse time, but that's
         * insufficient because of rule substitution, query pullup, etc.
         */
        CheckSelectLocking(parse);
@@ -1937,7 +1937,8 @@ preprocess_rowmarks(PlannerInfo *root)
    else
    {
        /*
-        * We only need rowmarks for UPDATE, DELETE, or FOR [KEY] UPDATE/SHARE.
+        * We only need rowmarks for UPDATE, DELETE, or FOR [KEY]
+        * UPDATE/SHARE.
         */
        if (parse->commandType != CMD_UPDATE &&
            parse->commandType != CMD_DELETE)
@@ -2238,7 +2239,7 @@ preprocess_limit(PlannerInfo *root, double tuple_fraction,
  *
  * If we have constant-zero OFFSET and constant-null LIMIT, we can skip adding
  * a Limit node.  This is worth checking for because "OFFSET 0" is a common
- * locution for an optimization fence.  (Because other places in the planner
+ * locution for an optimization fence. (Because other places in the planner
  * merely check whether parse->limitOffset isn't NULL, it will still work as
  * an optimization fence --- we're just suppressing unnecessary run-time
  * overhead.)
@@ -2273,7 +2274,7 @@ limit_needed(Query *parse)
            /* Treat NULL as no offset; the executor would too */
            if (!((Const *) node)->constisnull)
            {
-               int64   offset = DatumGetInt64(((Const *) node)->constvalue);
+               int64       offset = DatumGetInt64(((Const *) node)->constvalue);
 
                /* Executor would treat less-than-zero same as zero */
                if (offset > 0)
@@ -3107,7 +3108,7 @@ select_active_windows(PlannerInfo *root, WindowFuncLists *wflists)
  *
  * When grouping_planner inserts one or more WindowAgg nodes into the plan,
  * this function computes the initial target list to be computed by the node
- * just below the first WindowAgg.  This list must contain all values needed
+ * just below the first WindowAgg. This list must contain all values needed
  * to evaluate the window functions, compute the final target list, and
  * perform any required final sort step.  If multiple WindowAggs are needed,
  * each intermediate one adds its window function results onto this tlist;
@@ -3115,7 +3116,7 @@ select_active_windows(PlannerInfo *root, WindowFuncLists *wflists)
  *
  * This function is much like make_subplanTargetList, though not quite enough
  * like it to share code.  As in that function, we flatten most expressions
- * into their component variables.  But we do not want to flatten window
+ * into their component variables. But we do not want to flatten window
  * PARTITION BY/ORDER BY clauses, since that might result in multiple
  * evaluations of them, which would be bad (possibly even resulting in
  * inconsistent answers, if they contain volatile functions).  Also, we must
@@ -3472,7 +3473,7 @@ plan_cluster_use_sort(Oid tableOid, Oid indexOid)
    rte = makeNode(RangeTblEntry);
    rte->rtekind = RTE_RELATION;
    rte->relid = tableOid;
-   rte->relkind = RELKIND_RELATION;  /* Don't be too picky. */
+   rte->relkind = RELKIND_RELATION;    /* Don't be too picky. */
    rte->lateral = false;
    rte->inh = false;
    rte->inFromCl = true;
index bbdd8dc2d24cf74610975f6ba9d49280234fb51f..52842931ec5552c04fdec41e013c36e1897fd4e4 100644 (file)
@@ -608,7 +608,7 @@ pull_up_subqueries(PlannerInfo *root, Node *jtnode)
  *
  * If this jointree node is within either side of an outer join, then
  * lowest_outer_join references the lowest such JoinExpr node; otherwise
- * it is NULL.  We use this to constrain the effects of LATERAL subqueries.
+ * it is NULL. We use this to constrain the effects of LATERAL subqueries.
  *
  * If this jointree node is within the nullable side of an outer join, then
  * lowest_nulling_outer_join references the lowest such JoinExpr node;
@@ -702,11 +702,11 @@ pull_up_subqueries_recurse(PlannerInfo *root, Node *jtnode,
            case JOIN_INNER:
                j->larg = pull_up_subqueries_recurse(root, j->larg,
                                                     lowest_outer_join,
-                                                    lowest_nulling_outer_join,
+                                                  lowest_nulling_outer_join,
                                                     NULL);
                j->rarg = pull_up_subqueries_recurse(root, j->rarg,
                                                     lowest_outer_join,
-                                                    lowest_nulling_outer_join,
+                                                  lowest_nulling_outer_join,
                                                     NULL);
                break;
            case JOIN_LEFT:
@@ -714,7 +714,7 @@ pull_up_subqueries_recurse(PlannerInfo *root, Node *jtnode,
            case JOIN_ANTI:
                j->larg = pull_up_subqueries_recurse(root, j->larg,
                                                     j,
-                                                    lowest_nulling_outer_join,
+                                                  lowest_nulling_outer_join,
                                                     NULL);
                j->rarg = pull_up_subqueries_recurse(root, j->rarg,
                                                     j,
@@ -738,7 +738,7 @@ pull_up_subqueries_recurse(PlannerInfo *root, Node *jtnode,
                                                     NULL);
                j->rarg = pull_up_subqueries_recurse(root, j->rarg,
                                                     j,
-                                                    lowest_nulling_outer_join,
+                                                  lowest_nulling_outer_join,
                                                     NULL);
                break;
            default:
@@ -1080,7 +1080,7 @@ pull_up_simple_union_all(PlannerInfo *root, Node *jtnode, RangeTblEntry *rte)
 
    /*
     * Make a modifiable copy of the subquery's rtable, so we can adjust
-    * upper-level Vars in it.  There are no such Vars in the setOperations
+    * upper-level Vars in it.  There are no such Vars in the setOperations
     * tree proper, so fixing the rtable should be sufficient.
     */
    rtable = copyObject(subquery->rtable);
@@ -1288,9 +1288,9 @@ is_simple_subquery(Query *subquery, RangeTblEntry *rte,
        return false;
 
    /*
-    * Don't pull up if the RTE represents a security-barrier view; we couldn't
-    * prevent information leakage once the RTE's Vars are scattered about in
-    * the upper query.
+    * Don't pull up if the RTE represents a security-barrier view; we
+    * couldn't prevent information leakage once the RTE's Vars are scattered
+    * about in the upper query.
     */
    if (rte->security_barrier)
        return false;
@@ -1304,9 +1304,9 @@ is_simple_subquery(Query *subquery, RangeTblEntry *rte,
     */
    if (rte->lateral && lowest_outer_join != NULL)
    {
-       Relids  lvarnos = pull_varnos_of_level((Node *) subquery, 1);
-       Relids  jvarnos = get_relids_in_jointree((Node *) lowest_outer_join,
-                                                true);
+       Relids      lvarnos = pull_varnos_of_level((Node *) subquery, 1);
+       Relids      jvarnos = get_relids_in_jointree((Node *) lowest_outer_join,
+                                                    true);
 
        if (!bms_is_subset(lvarnos, jvarnos))
            return false;
@@ -1478,7 +1478,7 @@ replace_vars_in_jointree(Node *jtnode,
        /*
         * If the RangeTblRef refers to a LATERAL subquery (that isn't the
         * same subquery we're pulling up), it might contain references to the
-        * target subquery, which we must replace.  We drive this from the
+        * target subquery, which we must replace.  We drive this from the
         * jointree scan, rather than a scan of the rtable, for a couple of
         * reasons: we can avoid processing no-longer-referenced RTEs, and we
         * can use the appropriate setting of need_phvs depending on whether
index 657a18b1be4e2727bff5852badea05035318ecca..6d5b20406e6bd5c666a90fb4cd28fbc3142c4976 100644 (file)
@@ -3971,7 +3971,7 @@ evaluate_function(Oid funcid, Oid result_type, int32 result_typmod,
    newexpr->funcresulttype = result_type;
    newexpr->funcretset = false;
    newexpr->funcvariadic = funcvariadic;
-   newexpr->funcformat = COERCE_EXPLICIT_CALL; /* doesn't matter */
+   newexpr->funcformat = COERCE_EXPLICIT_CALL; /* doesn't matter */
    newexpr->funccollid = result_collid;        /* doesn't matter */
    newexpr->inputcollid = input_collid;
    newexpr->args = args;
index f6ac06f45537fda19b69130997de252d69813fa1..64b1705191329a2886325b16aa4da7cbf2c5c576 100644 (file)
@@ -207,12 +207,12 @@ compare_path_costs_fuzzily(Path *path1, Path *path2, double fuzz_factor,
  *
  * cheapest_total_path is normally the cheapest-total-cost unparameterized
  * path; but if there are no unparameterized paths, we assign it to be the
- * best (cheapest least-parameterized) parameterized path.  However, only
+ * best (cheapest least-parameterized) parameterized path. However, only
  * unparameterized paths are considered candidates for cheapest_startup_path,
  * so that will be NULL if there are no unparameterized paths.
  *
  * The cheapest_parameterized_paths list collects all parameterized paths
- * that have survived the add_path() tournament for this relation.  (Since
+ * that have survived the add_path() tournament for this relation. (Since
  * add_path ignores pathkeys and startup cost for a parameterized path,
  * these will be paths that have best total cost or best row count for their
  * parameterization.)  cheapest_parameterized_paths always includes the
@@ -282,6 +282,7 @@ set_cheapest(RelOptInfo *parent_rel)
                        /* old path is less-parameterized, keep it */
                        break;
                    case BMS_DIFFERENT:
+
                        /*
                         * This means that neither path has the least possible
                         * parameterization for the rel.  We'll sit on the old
@@ -328,8 +329,8 @@ set_cheapest(RelOptInfo *parent_rel)
        parameterized_paths = lcons(cheapest_total_path, parameterized_paths);
 
    /*
-    * If there is no unparameterized path, use the best parameterized path
-    * as cheapest_total_path (but not as cheapest_startup_path).
+    * If there is no unparameterized path, use the best parameterized path as
+    * cheapest_total_path (but not as cheapest_startup_path).
     */
    if (cheapest_total_path == NULL)
        cheapest_total_path = best_param_path;
@@ -501,7 +502,7 @@ add_path(RelOptInfo *parent_rel, Path *new_path)
                                    accept_new = false; /* old dominates new */
                                else if (compare_path_costs_fuzzily(new_path,
                                                                    old_path,
-                                                                   1.0000000001,
+                                                               1.0000000001,
                                                                    parent_rel->consider_startup) == COSTS_BETTER1)
                                    remove_old = true;  /* new dominates old */
                                else
@@ -1022,7 +1023,7 @@ create_result_path(List *quals)
 
    pathnode->path.pathtype = T_Result;
    pathnode->path.parent = NULL;
-   pathnode->path.param_info = NULL;       /* there are no other rels... */
+   pathnode->path.param_info = NULL;   /* there are no other rels... */
    pathnode->path.pathkeys = NIL;
    pathnode->quals = quals;
 
index 8f8da0523c543d48512c62a7e08534a0cdd91d41..16ff23443c5900c6f587b3595914af6757a7ce50 100644 (file)
@@ -678,7 +678,7 @@ transformInsertStmt(ParseState *pstate, InsertStmt *stmt)
    else
    {
        /*
-        * Process INSERT ... VALUES with a single VALUES sublist.  We treat
+        * Process INSERT ... VALUES with a single VALUES sublist.  We treat
         * this case separately for efficiency.  The sublist is just computed
         * directly as the Query's targetlist, with no VALUES RTE.  So it
         * works just like a SELECT without any FROM.
@@ -1178,7 +1178,7 @@ transformValuesClause(ParseState *pstate, SelectStmt *stmt)
    /*
     * Ordinarily there can't be any current-level Vars in the expression
     * lists, because the namespace was empty ... but if we're inside CREATE
-    * RULE, then NEW/OLD references might appear.  In that case we have to
+    * RULE, then NEW/OLD references might appear.  In that case we have to
     * mark the VALUES RTE as LATERAL.
     */
    if (pstate->p_rtable != NIL &&
@@ -2158,7 +2158,7 @@ transformCreateTableAsStmt(ParseState *pstate, CreateTableAsStmt *stmt)
 
        /*
         * A materialized view would either need to save parameters for use in
-        * maintaining/loading the data or prohibit them entirely.  The latter
+        * maintaining/loading the data or prohibit them entirely.  The latter
         * seems safer and more sane.
         */
        if (query_contains_extern_params(query))
@@ -2167,10 +2167,10 @@ transformCreateTableAsStmt(ParseState *pstate, CreateTableAsStmt *stmt)
                     errmsg("materialized views may not be defined using bound parameters")));
 
        /*
-        * For now, we disallow unlogged materialized views, because it
-        * seems like a bad idea for them to just go to empty after a crash.
-        * (If we could mark them as unpopulated, that would be better, but
-        * that requires catalog changes which crash recovery can't presently
+        * For now, we disallow unlogged materialized views, because it seems
+        * like a bad idea for them to just go to empty after a crash. (If we
+        * could mark them as unpopulated, that would be better, but that
+        * requires catalog changes which crash recovery can't presently
         * handle.)
         */
        if (stmt->into->rel->relpersistence == RELPERSISTENCE_UNLOGGED)
@@ -2211,23 +2211,23 @@ CheckSelectLocking(Query *qry)
    if (qry->distinctClause != NIL)
        ereport(ERROR,
                (errcode(ERRCODE_FEATURE_NOT_SUPPORTED),
-                errmsg("row-level locks are not allowed with DISTINCT clause")));
+           errmsg("row-level locks are not allowed with DISTINCT clause")));
    if (qry->groupClause != NIL)
        ereport(ERROR,
                (errcode(ERRCODE_FEATURE_NOT_SUPPORTED),
-                errmsg("row-level locks are not allowed with GROUP BY clause")));
+           errmsg("row-level locks are not allowed with GROUP BY clause")));
    if (qry->havingQual != NULL)
        ereport(ERROR,
                (errcode(ERRCODE_FEATURE_NOT_SUPPORTED),
-       errmsg("row-level locks are not allowed with HAVING clause")));
+             errmsg("row-level locks are not allowed with HAVING clause")));
    if (qry->hasAggs)
        ereport(ERROR,
                (errcode(ERRCODE_FEATURE_NOT_SUPPORTED),
-                errmsg("row-level locks are not allowed with aggregate functions")));
+       errmsg("row-level locks are not allowed with aggregate functions")));
    if (qry->hasWindowFuncs)
        ereport(ERROR,
                (errcode(ERRCODE_FEATURE_NOT_SUPPORTED),
-                errmsg("row-level locks are not allowed with window functions")));
+          errmsg("row-level locks are not allowed with window functions")));
    if (expression_returns_set((Node *) qry->targetList))
        ereport(ERROR,
                (errcode(ERRCODE_FEATURE_NOT_SUPPORTED),
@@ -2394,8 +2394,8 @@ applyLockingClause(Query *qry, Index rtindex,
    {
        /*
         * If the same RTE is specified for more than one locking strength,
-        * treat is as the strongest.  (Reasonable, since you can't take both a
-        * shared and exclusive lock at the same time; it'll end up being
+        * treat is as the strongest.  (Reasonable, since you can't take both
+        * shared and exclusive lock at the same time; it'll end up being
         * exclusive anyway.)
         *
         * We also consider that NOWAIT wins if it's specified both ways. This
index ffdf52569296763955b376d3e71ccb9c4b202291..39b94bc4659f8366acefc3ea9e94ed2960cd5b99 100644 (file)
@@ -9,7 +9,7 @@
 use warnings;
 use strict;
 
-my $gram_filename = $ARGV[0];
+my $gram_filename   = $ARGV[0];
 my $kwlist_filename = $ARGV[1];
 
 my $errors = 0;
@@ -52,6 +52,7 @@ line: while (<GRAM>)
 
    if (!($kcat))
    {
+
        # Is this the beginning of a keyword list?
        foreach $k (keys %keyword_categories)
        {
@@ -81,6 +82,7 @@ line: while (<GRAM>)
        }
        elsif ($arr[$fieldIndexer] eq '/*')
        {
+
            # start of a multiline comment
            $comment = 1;
            next;
@@ -92,6 +94,7 @@ line: while (<GRAM>)
 
        if ($arr[$fieldIndexer] eq ';')
        {
+
            # end of keyword list
            $kcat = '';
            next;
@@ -116,6 +119,7 @@ foreach $kcat (keys %keyword_categories)
 
    foreach $kword (@{ $keywords{$kcat} })
    {
+
        # Some keyword have a _P suffix. Remove it for the comparison.
        $bare_kword = $kword;
        $bare_kword =~ s/_P$//;
@@ -206,6 +210,7 @@ kwlist_line: while (<KWLIST>)
            }
            else
            {
+
                # Remove it from the hash, so that we can
                # complain at the end if there's keywords left
                # that were not found in kwlist.h
index a944a4d4a8d5f466f4df9d7f6aef8235d77c003e..7380618fae343be2e8f8e17b2337dabcdf59ae91 100644 (file)
@@ -286,7 +286,7 @@ transformAggregateCall(ParseState *pstate, Aggref *agg,
    if (errkind)
        ereport(ERROR,
                (errcode(ERRCODE_GROUPING_ERROR),
-                /* translator: %s is name of a SQL construct, eg GROUP BY */
+       /* translator: %s is name of a SQL construct, eg GROUP BY */
                 errmsg("aggregate functions are not allowed in %s",
                        ParseExprKindName(pstate->p_expr_kind)),
                 parser_errposition(pstate, agg->location)));
@@ -554,7 +554,7 @@ transformWindowFuncCall(ParseState *pstate, WindowFunc *wfunc,
    if (errkind)
        ereport(ERROR,
                (errcode(ERRCODE_WINDOWING_ERROR),
-                /* translator: %s is name of a SQL construct, eg GROUP BY */
+       /* translator: %s is name of a SQL construct, eg GROUP BY */
                 errmsg("window functions are not allowed in %s",
                        ParseExprKindName(pstate->p_expr_kind)),
                 parser_errposition(pstate, wfunc->location)));
index 1915210bab5d2bcb8178462c691dabfe350ab99d..cbfb43188c141469969155d2436c8de7cca0a4a1 100644 (file)
@@ -604,7 +604,7 @@ transformRangeFunction(ParseState *pstate, RangeFunction *r)
  * *top_rti: receives the rangetable index of top_rte. (Ditto.)
  *
  * *namespace: receives a List of ParseNamespaceItems for the RTEs exposed
- * as table/column names by this item.  (The lateral_only flags in these items
+ * as table/column names by this item. (The lateral_only flags in these items
  * are indeterminate and should be explicitly set by the caller before use.)
  */
 static Node *
@@ -715,8 +715,8 @@ transformFromClauseItem(ParseState *pstate, Node *n,
        /*
         * Make the left-side RTEs available for LATERAL access within the
         * right side, by temporarily adding them to the pstate's namespace
-        * list.  Per SQL:2008, if the join type is not INNER or LEFT then
-        * the left-side names must still be exposed, but it's an error to
+        * list.  Per SQL:2008, if the join type is not INNER or LEFT then the
+        * left-side names must still be exposed, but it's an error to
         * reference them.  (Stupid design, but that's what it says.)  Hence,
         * we always push them into the namespace, but mark them as not
         * lateral_ok if the jointype is wrong.
@@ -980,7 +980,7 @@ transformFromClauseItem(ParseState *pstate, Node *n,
         *
         * Note: if there are nested alias-less JOINs, the lower-level ones
         * will remain in the list although they have neither p_rel_visible
-        * nor p_cols_visible set.  We could delete such list items, but it's
+        * nor p_cols_visible set.  We could delete such list items, but it's
         * unclear that it's worth expending cycles to do so.
         */
        if (j->alias != NULL)
@@ -1282,20 +1282,20 @@ checkTargetlistEntrySQL92(ParseState *pstate, TargetEntry *tle,
                contain_aggs_of_level((Node *) tle->expr, 0))
                ereport(ERROR,
                        (errcode(ERRCODE_GROUPING_ERROR),
-                        /* translator: %s is name of a SQL construct, eg GROUP BY */
+               /* translator: %s is name of a SQL construct, eg GROUP BY */
                         errmsg("aggregate functions are not allowed in %s",
                                ParseExprKindName(exprKind)),
                         parser_errposition(pstate,
-                                           locate_agg_of_level((Node *) tle->expr, 0))));
+                              locate_agg_of_level((Node *) tle->expr, 0))));
            if (pstate->p_hasWindowFuncs &&
                contain_windowfuncs((Node *) tle->expr))
                ereport(ERROR,
                        (errcode(ERRCODE_WINDOWING_ERROR),
-                        /* translator: %s is name of a SQL construct, eg GROUP BY */
+               /* translator: %s is name of a SQL construct, eg GROUP BY */
                         errmsg("window functions are not allowed in %s",
                                ParseExprKindName(exprKind)),
                         parser_errposition(pstate,
-                                           locate_windowfunc((Node *) tle->expr))));
+                                   locate_windowfunc((Node *) tle->expr))));
            break;
        case EXPR_KIND_ORDER_BY:
            /* no extra checks needed */
@@ -1324,7 +1324,7 @@ checkTargetlistEntrySQL92(ParseState *pstate, TargetEntry *tle,
  *
  * node        the ORDER BY, GROUP BY, or DISTINCT ON expression to be matched
  * tlist   the target list (passed by reference so we can append to it)
- * exprKind    identifies clause type being processed
+ * exprKind identifies clause type being processed
  */
 static TargetEntry *
 findTargetlistEntrySQL92(ParseState *pstate, Node *node, List **tlist,
@@ -1491,7 +1491,7 @@ findTargetlistEntrySQL92(ParseState *pstate, Node *node, List **tlist,
  *
  * node        the ORDER BY, GROUP BY, etc expression to be matched
  * tlist   the target list (passed by reference so we can append to it)
- * exprKind    identifies clause type being processed
+ * exprKind identifies clause type being processed
  */
 static TargetEntry *
 findTargetlistEntrySQL99(ParseState *pstate, Node *node, List **tlist,
index 327557e0a38319034163925160d448f6d963c4f2..7f0995fae1fb75ba8beaf58920f9e6c2e3849093 100644 (file)
@@ -251,7 +251,7 @@ transformExprRecurse(ParseState *pstate, Node *expr)
                        break;
                    default:
                        elog(ERROR, "unrecognized A_Expr kind: %d", a->kind);
-                       result = NULL;      /* keep compiler quiet */
+                       result = NULL;  /* keep compiler quiet */
                        break;
                }
                break;
@@ -1411,9 +1411,9 @@ transformSubLink(ParseState *pstate, SubLink *sublink)
        return result;
 
    /*
-    * Check to see if the sublink is in an invalid place within the query.
-    * We allow sublinks everywhere in SELECT/INSERT/UPDATE/DELETE, but
-    * generally not in utility statements.
+    * Check to see if the sublink is in an invalid place within the query. We
+    * allow sublinks everywhere in SELECT/INSERT/UPDATE/DELETE, but generally
+    * not in utility statements.
     */
    err = NULL;
    switch (pstate->p_expr_kind)
@@ -2031,7 +2031,7 @@ transformXmlSerialize(ParseState *pstate, XmlSerialize *xs)
    xexpr = makeNode(XmlExpr);
    xexpr->op = IS_XMLSERIALIZE;
    xexpr->args = list_make1(coerce_to_specific_type(pstate,
-                                       transformExprRecurse(pstate, xs->expr),
+                                     transformExprRecurse(pstate, xs->expr),
                                                     XMLOID,
                                                     "XMLSERIALIZE"));
 
index a01589a1d9cd952695a2f56ea8c01c81b1ba661c..a9254c8c3a2e33b7c293ef51c53c78a797b1d4f1 100644 (file)
@@ -285,7 +285,7 @@ isFutureCTE(ParseState *pstate, const char *refname)
  *
  * This is different from refnameRangeTblEntry in that it considers every
  * entry in the ParseState's rangetable(s), not only those that are currently
- * visible in the p_namespace list(s).  This behavior is invalid per the SQL
+ * visible in the p_namespace list(s). This behavior is invalid per the SQL
  * spec, and it may give ambiguous results (there might be multiple equally
  * valid matches, but only one will be returned).  This must be used ONLY
  * as a heuristic in giving suitable error messages.  See errorMissingRTE.
@@ -639,7 +639,7 @@ colNameToVar(ParseState *pstate, char *colname, bool localonly,
  *
  * This is different from colNameToVar in that it considers every entry in
  * the ParseState's rangetable(s), not only those that are currently visible
- * in the p_namespace list(s).  This behavior is invalid per the SQL spec,
+ * in the p_namespace list(s). This behavior is invalid per the SQL spec,
  * and it may give ambiguous results (there might be multiple equally valid
  * matches, but only one will be returned).  This must be used ONLY as a
  * heuristic in giving suitable error messages.  See errorMissingColumn.
index e3397764d619b4a5387ef5548a38c00dcf772fe9..ca20e77ce6d1b09ff0a2012f7d3084d33c40543d 100644 (file)
@@ -76,7 +76,7 @@ static int    FigureColnameInternal(Node *node, char **name);
  *
  * node        the (untransformed) parse tree for the value expression.
  * expr        the transformed expression, or NULL if caller didn't do it yet.
- * exprKind    expression kind (EXPR_KIND_SELECT_TARGET, etc)
+ * exprKind expression kind (EXPR_KIND_SELECT_TARGET, etc)
  * colname the column name to be assigned, or NULL if none yet set.
  * resjunk true if the target should be marked resjunk, ie, it is not
  *         wanted in the final projected tuple.
@@ -1130,7 +1130,7 @@ ExpandColumnRefStar(ParseState *pstate, ColumnRef *cref,
  *     Transforms '*' (in the target list) into a list of targetlist entries.
  *
  * tlist entries are generated for each relation visible for unqualified
- * column name access.  We do not consider qualified-name-only entries because
+ * column name access. We do not consider qualified-name-only entries because
  * that would include input tables of aliasless JOINs, NEW/OLD pseudo-entries,
  * etc.
  *
index 9ad832bbb289b5b6dd7b1d4f11e2276024f0567c..b426a453242e465dbf42304ec48e796824dadbb5 100644 (file)
@@ -525,7 +525,7 @@ transformColumnDefinition(CreateStmtContext *cxt, ColumnDef *column)
                if (cxt->isforeign)
                    ereport(ERROR,
                            (errcode(ERRCODE_FEATURE_NOT_SUPPORTED),
-                            errmsg("constraints are not supported on foreign tables"),
+                   errmsg("constraints are not supported on foreign tables"),
                   &