]> git.saurik.com Git - bison.git/blobdiff - tests/regression.at
* data/bison.simple (b4_pure_if): New.
[bison.git] / tests / regression.at
index 6f702f322083da909339a71370a634e2f70a5038..3620200af6415cca7f136e87f71524ca74082fbb 100644 (file)
@@ -1,5 +1,5 @@
 # Bison Regressions.                               -*- Autotest -*-
 # Bison Regressions.                               -*- Autotest -*-
-# Copyright 2001 Free Software Foundation, Inc.
+# Copyright (C) 2001, 2002 Free Software Foundation, Inc.
 
 # This program is free software; you can redistribute it and/or modify
 # it under the terms of the GNU General Public License as published by
 
 # This program is free software; you can redistribute it and/or modify
 # it under the terms of the GNU General Public License as published by
 
 AT_BANNER([[Regression tests.]])
 
 
 AT_BANNER([[Regression tests.]])
 
-## ------------------ ##
-## Duplicate string.  ##
-## ------------------ ##
 
 
+## ------------------------- ##
+## Early token definitions.  ##
+## ------------------------- ##
 
 
-AT_SETUP([Duplicate string])
 
 
-AT_DATA([duplicate.y],
-[[/* `Bison -v' used to dump core when two tokens are defined with the same
-   string, as LE and GE below. */
+AT_SETUP([Early token definitions])
 
 
-%token NUM
-%token LE "<="
-%token GE "<="
+# Found in GCJ: they expect the tokens to be defined before the user
+# prologue, so that they can use the token definitions in it.
 
 
+AT_DATA([input.y],
+[[%{
+void yyerror (const char *s);
+int yylex (void);
+%}
+
+%union
+{
+  int val;
+};
+%{
+#ifndef MY_TOKEN
+# error "MY_TOKEN not defined."
+#endif
+%}
+%token MY_TOKEN
 %%
 %%
-exp: '(' exp ')' | NUM ;
+exp: MY_TOKEN;
 %%
 ]])
 
 %%
 ]])
 
-AT_CHECK([bison -v duplicate.y -o duplicate.c], 0, ignore, ignore)
+AT_CHECK([bison input.y -o input.c])
+AT_CHECK([$CC $CFLAGS $CPPFLAGS input.c -c])
 
 AT_CLEANUP
 
 
 
 AT_CLEANUP
 
 
-## ------------------------- ##
-## Unresolved SR Conflicts.  ##
-## ------------------------- ##
 
 
-AT_SETUP([Unresolved SR Conflicts])
+## ---------------- ##
+## Braces parsing.  ##
+## ---------------- ##
 
 
-AT_DATA([input.y],
-[[%token NUM OP
-%%
-exp: exp OP exp | NUM;
-]])
-
-AT_CHECK([bison input.y -o input.c -v], 0, [],
-[input.y contains 1 shift/reduce conflict.
-])
 
 
-# Check the contents of the report.
-AT_CHECK([cat input.output], [],
-[[State 4 contains 1 shift/reduce conflict.
+AT_SETUP([Braces parsing])
 
 
-Grammar
-
-rule 1    exp -> exp OP exp
-rule 2    exp -> NUM
-
-Terminals, with rules where they appear
-
-$ (-1)
-error (256)
-NUM (257) 2
-OP (258) 1
-
-Nonterminals, with rules where they appear
-
-exp (5)
-    on left: 1 2, on right: 1
-
-
-state 0
-
-    NUM        shift, and go to state 1
+AT_DATA([input.y],
+[[/* Bison used to swallow the character after `}'. */
 
 
-    exp        go to state 2
+%%
+exp: { tests = {{{{{{{{{{}}}}}}}}}}; };
+%%
+]])
 
 
+AT_CHECK([bison -v input.y -o input.c])
 
 
+AT_CHECK([fgrep 'tests = {{{{{{{{{{}}}}}}}}}};' input.c], 0, [ignore])
 
 
-state 1
+AT_CLEANUP
 
 
-    exp  ->  NUM .   (rule 2)
 
 
-    $default   reduce using rule 2 (exp)
+## ------------------ ##
+## Duplicate string.  ##
+## ------------------ ##
 
 
 
 
+AT_SETUP([Duplicate string])
 
 
-state 2
+AT_DATA([input.y],
+[[/* `Bison -v' used to dump core when two tokens are defined with the same
+   string, as LE and GE below. */
 
 
-    exp  ->  exp . OP exp   (rule 1)
+%token NUM
+%token LE "<="
+%token GE "<="
 
 
-    $          go to state 5
-    OP         shift, and go to state 3
+%%
+exp: '(' exp ')' | NUM ;
+%%
+]])
 
 
+AT_CHECK([bison -v input.y -o input.c], 0, [],
+[[input.y:6: warning: symbol `"<="' used more than once as a literal string
+]])
 
 
+AT_CLEANUP
 
 
-state 3
 
 
-    exp  ->  exp OP . exp   (rule 1)
+## ------------------- ##
+## Rule Line Numbers.  ##
+## ------------------- ##
 
 
-    NUM        shift, and go to state 1
+AT_SETUP([Rule Line Numbers])
 
 
-    exp        go to state 4
+AT_KEYWORDS([report])
 
 
+AT_DATA([input.y],
+[[%%
+expr:
+'a'
 
 
+{
 
 
-state 4
+}
 
 
-    exp  ->  exp . OP exp   (rule 1)
-    exp  ->  exp OP exp .   (rule 1)
+'b'
 
 
-    OP         shift, and go to state 3
+{
 
 
-    OP         [reduce using rule 1 (exp)]
-    $default   reduce using rule 1 (exp)
+}
 
 
+|
 
 
 
 
-state 5
+{
 
 
-    $          go to state 6
 
 
+}
 
 
+'c'
 
 
-state 6
+{
 
 
-    $default   accept
+};
 ]])
 
 ]])
 
-AT_CLEANUP
-
+AT_CHECK([bison input.y -o input.c -v])
 
 
-## --------------------- ##
-## Solved SR Conflicts.  ##
-## --------------------- ##
+# Check the contents of the report.
+AT_CHECK([cat input.output], [],
+[[Grammar
 
 
-AT_SETUP([Solved SR Conflicts])
+    0 $axiom: expr $
 
 
-AT_DATA([input.y],
-[[%token NUM OP
-%right OP
-%%
-exp: exp OP exp | NUM;
-]])
+    1 @1: /* empty */
 
 
-AT_CHECK([bison input.y -o input.c -v], 0, [], [])
+    2 expr: 'a' @1 'b'
 
 
-# Check the contents of the report.
-AT_CHECK([cat input.output], [],
-[[Conflict in state 4 between rule 1 and token OP resolved as shift.
+    3 @2: /* empty */
 
 
-Grammar
+    4 expr: @2 'c'
 
 
-rule 1    exp -> exp OP exp
-rule 2    exp -> NUM
 
 Terminals, with rules where they appear
 
 
 Terminals, with rules where they appear
 
-$ (-1)
+$ (0) 0
+'a' (97) 2
+'b' (98) 2
+'c' (99) 4
 error (256)
 error (256)
-NUM (257) 2
-OP (258) 1
+
 
 Nonterminals, with rules where they appear
 
 
 Nonterminals, with rules where they appear
 
-exp (5)
-    on left: 1 2, on right: 1
+$axiom (6)
+    on left: 0
+expr (7)
+    on left: 2 4, on right: 0
+@1 (8)
+    on left: 1, on right: 2
+@2 (9)
+    on left: 3, on right: 4
 
 
 state 0
 
 
 
 state 0
 
-    NUM        shift, and go to state 1
+    $axiom  ->  . expr $   (rule 0)
 
 
-    exp        go to state 2
+    'a'        shift, and go to state 1
+
+    $default   reduce using rule 3 (@2)
+
+    expr       go to state 2
+    @2         go to state 3
 
 
 
 state 1
 
 
 
 
 state 1
 
-    exp  ->  NUM .   (rule 2)
+    expr  ->  'a' . @1 'b'   (rule 2)
+
+    $default   reduce using rule 1 (@1)
 
 
-    $default   reduce using rule 2 (exp)
+    @1         go to state 4
 
 
 
 state 2
 
 
 
 
 state 2
 
-    exp  ->  exp . OP exp   (rule 1)
+    $axiom  ->  expr . $   (rule 0)
 
 
-    $          go to state 5
-    OP         shift, and go to state 3
+    $          shift, and go to state 5
 
 
 
 state 3
 
 
 
 
 state 3
 
-    exp  ->  exp OP . exp   (rule 1)
+    expr  ->  @2 . 'c'   (rule 4)
 
 
-    NUM        shift, and go to state 1
-
-    exp        go to state 4
+    'c'        shift, and go to state 6
 
 
 
 state 4
 
 
 
 
 state 4
 
-    exp  ->  exp . OP exp   (rule 1)
-    exp  ->  exp OP exp .   (rule 1)
-
-    OP         shift, and go to state 3
+    expr  ->  'a' @1 . 'b'   (rule 2)
 
 
-    $default   reduce using rule 1 (exp)
+    'b'        shift, and go to state 7
 
 
 
 state 5
 
 
 
 
 state 5
 
-    $          go to state 6
+    $axiom  ->  expr $ .   (rule 0)
 
 
+    $default   accept
 
 
 state 6
 
 
 
 state 6
 
-    $default   accept
-]])
-
-AT_CLEANUP
-
+    expr  ->  @2 'c' .   (rule 4)
 
 
+    $default   reduce using rule 4 (expr)
 
 
-## -------------------- ##
-## %expect not enough.  ##
-## -------------------- ##
 
 
-AT_SETUP([%expect not enough])
 
 
-AT_DATA([input.y],
-[[%token NUM OP
-%expect 0
-%%
-exp: exp OP exp | NUM;
-]])
+state 7
 
 
-AT_CHECK([bison input.y -o input.c], 1, [],
-[input.y contains 1 shift/reduce conflict.
-expected 0 shift/reduce conflicts
-])
-AT_CLEANUP
+    expr  ->  'a' @1 'b' .   (rule 2)
 
 
+    $default   reduce using rule 2 (expr)
 
 
-## --------------- ##
-## %expect right.  ##
-## --------------- ##
 
 
-AT_SETUP([%expect right])
 
 
-AT_DATA([input.y],
-[[%token NUM OP
-%expect 1
-%%
-exp: exp OP exp | NUM;
 ]])
 
 ]])
 
-AT_CHECK([bison input.y -o input.c], 0, [],
-[input.y contains 1 shift/reduce conflict.
-])
 AT_CLEANUP
 
 
 AT_CLEANUP
 
 
-## ------------------ ##
-## %expect too much.  ##
-## ------------------ ##
-
-AT_SETUP([%expect too much])
-
-AT_DATA([input.y],
-[[%token NUM OP
-%expect 2
-%%
-exp: exp OP exp | NUM;
-]])
-
-AT_CHECK([bison input.y -o input.c], 1, [],
-[input.y contains 1 shift/reduce conflict.
-expected 2 shift/reduce conflicts
-])
-AT_CLEANUP
-
 
 ## ---------------------- ##
 ## Mixing %token styles.  ##
 
 ## ---------------------- ##
 ## Mixing %token styles.  ##
@@ -316,122 +275,314 @@ exp: ;
 %%
 ]])
 
 %%
 ]])
 
-AT_CHECK([bison -v input.y -o input.c], 0, ignore, ignore)
+AT_CHECK([bison -v input.y -o input.c])
 
 AT_CLEANUP
 
 
 
 
 AT_CLEANUP
 
 
 
-## ---------------------- ##
-## %union and --defines.  ##
-## ---------------------- ##
+## ---------------- ##
+## Invalid inputs.  ##
+## ---------------- ##
 
 
 
 
-AT_SETUP([%union and --defines])
+AT_SETUP([Invalid inputs])
 
 
-AT_DATA([union.y],
-[%union
-{
-  int   integer;
-  char *string ;
-}
-%%
-exp: {};
-])
+AT_DATA([input.y],
+[[%%
+?
+default: 'a' }
+%&
+%a
+%-
+%{
+]])
 
 
-AT_CHECK([bison --defines union.y])
+AT_CHECK([bison input.y], [1], [],
+[[input.y:2.1: invalid character: `?'
+input.y:3.14: invalid character: `}'
+input.y:4.1: invalid character: `%'
+input.y:4.2: invalid character: `&'
+input.y:5.1: invalid character: `%'
+input.y:6.1: invalid character: `%'
+input.y:6.2: invalid character: `-'
+input.y:7.1-8.0: unexpected end of file in a prologue
+input.y:7.1-8.0: parse error, unexpected PROLOGUE, expecting ";" or "|"
+input.y:5.2: symbol a is used, but is not defined as a token and has no rules
+]])
 
 AT_CLEANUP
 
 
 
 AT_CLEANUP
 
 
-## --------------------------------------- ##
-## Duplicate '/' in C comments in %union   ##
-## --------------------------------------- ##
 
 
+## ------------------- ##
+## Token definitions.  ##
+## ------------------- ##
 
 
-AT_SETUP([%union and C comments])
 
 
-AT_DATA([union-comment.y],
-[%union
-{
-  /* The int.  */      int   integer;
-  /* The string.  */   char *string ;
-}
-%%
-exp: {};
-])
+AT_SETUP([Token definitions])
 
 
-AT_CHECK([bison union-comment.y])
-AT_CHECK([fgrep '//*' union-comment.tab.c], [1], [])
+# Bison managed, when fed with `%token 'f' "f"' to #define 'f'!
+AT_DATA([input.y],
+[%{
+void yyerror (const char *s);
+int yylex (void);
+%}
+[%token YYEOF 0 "end of file"
+%token 'a' "a"
+%token b "b"
+%token c 'c'
+%token 'd' d
+%%
+exp: "a";
+]])
 
 
+AT_CHECK([bison input.y -o input.c])
+AT_CHECK([$CC $CFLAGS $CPPFLAGS input.c -c])
 AT_CLEANUP
 
 
 AT_CLEANUP
 
 
-## ----------------- ##
-## Invalid input 1.  ##
-## ----------------- ##
 
 
+## -------------- ##
+## Web2c Report.  ##
+## -------------- ##
 
 
-AT_SETUP([Invalid input: 1])
+# The generation of the reduction was once wrong in Bison, and made it
+# miss some reductions.  In the following test case, the reduction on
+# `undef_id_tok' in state 1 was missing.  This is stripped down from
+# the actual web2c.y.
 
 
-AT_DATA([input.y],
-[[%%
-?
-]])
-
-AT_CHECK([bison input.y], [1], [],
-[input.y:2: invalid input: `?'
-input.y:3: fatal error: no rules in the input grammar
-])
+AT_SETUP([Web2c Report])
 
 
-AT_CLEANUP
+AT_KEYWORDS([report])
 
 
+AT_DATA([input.y],
+[[%token       undef_id_tok const_id_tok
 
 
-## ----------------- ##
-## Invalid input 2.  ##
-## ----------------- ##
+%start CONST_DEC_PART
+\f
+%%
+CONST_DEC_PART:
+         CONST_DEC_LIST
+        ;
+
+CONST_DEC_LIST:
+         CONST_DEC
+        | CONST_DEC_LIST CONST_DEC
+        ;
+
+CONST_DEC:
+         { } undef_id_tok '=' const_id_tok ';'
+        ;
+%%
 
 
+]])
 
 
-AT_SETUP([Invalid input: 2])
+AT_CHECK([bison -v input.y])
 
 
-AT_DATA([input.y],
-[[%%
-default: 'a' }
+AT_CHECK([sed -n 's/  *$//;/^$/!p' input.output], 0,
+[[Grammar
+    0 $axiom: CONST_DEC_PART $
+    1 CONST_DEC_PART: CONST_DEC_LIST
+    2 CONST_DEC_LIST: CONST_DEC
+    3               | CONST_DEC_LIST CONST_DEC
+    4 @1: /* empty */
+    5 CONST_DEC: @1 undef_id_tok '=' const_id_tok ';'
+Terminals, with rules where they appear
+$ (0) 0
+';' (59) 5
+'=' (61) 5
+error (256)
+undef_id_tok (258) 5
+const_id_tok (259) 5
+Nonterminals, with rules where they appear
+$axiom (7)
+    on left: 0
+CONST_DEC_PART (8)
+    on left: 1, on right: 0
+CONST_DEC_LIST (9)
+    on left: 2 3, on right: 1 3
+CONST_DEC (10)
+    on left: 5, on right: 2 3
+@1 (11)
+    on left: 4, on right: 5
+state 0
+    $axiom  ->  . CONST_DEC_PART $   (rule 0)
+    $default   reduce using rule 4 (@1)
+    CONST_DEC_PART     go to state 1
+    CONST_DEC_LIST     go to state 2
+    CONST_DEC  go to state 3
+    @1         go to state 4
+state 1
+    $axiom  ->  CONST_DEC_PART . $   (rule 0)
+    $          shift, and go to state 5
+state 2
+    CONST_DEC_PART  ->  CONST_DEC_LIST .   (rule 1)
+    CONST_DEC_LIST  ->  CONST_DEC_LIST . CONST_DEC   (rule 3)
+    undef_id_tok       reduce using rule 4 (@1)
+    $default   reduce using rule 1 (CONST_DEC_PART)
+    CONST_DEC  go to state 6
+    @1         go to state 4
+state 3
+    CONST_DEC_LIST  ->  CONST_DEC .   (rule 2)
+    $default   reduce using rule 2 (CONST_DEC_LIST)
+state 4
+    CONST_DEC  ->  @1 . undef_id_tok '=' const_id_tok ';'   (rule 5)
+    undef_id_tok       shift, and go to state 7
+state 5
+    $axiom  ->  CONST_DEC_PART $ .   (rule 0)
+    $default   accept
+state 6
+    CONST_DEC_LIST  ->  CONST_DEC_LIST CONST_DEC .   (rule 3)
+    $default   reduce using rule 3 (CONST_DEC_LIST)
+state 7
+    CONST_DEC  ->  @1 undef_id_tok . '=' const_id_tok ';'   (rule 5)
+    '='        shift, and go to state 8
+state 8
+    CONST_DEC  ->  @1 undef_id_tok '=' . const_id_tok ';'   (rule 5)
+    const_id_tok       shift, and go to state 9
+state 9
+    CONST_DEC  ->  @1 undef_id_tok '=' const_id_tok . ';'   (rule 5)
+    ';'        shift, and go to state 10
+state 10
+    CONST_DEC  ->  @1 undef_id_tok '=' const_id_tok ';' .   (rule 5)
+    $default   reduce using rule 5 (CONST_DEC)
 ]])
 
 ]])
 
-AT_CHECK([bison input.y], [1], [],
-[input.y:2: invalid input: `}'
-])
-
 AT_CLEANUP
 
 
 AT_CLEANUP
 
 
+## --------------- ##
+## Web2c Actions.  ##
+## --------------- ##
 
 
-## --------------------- ##
-## Invalid CPP headers.  ##
-## --------------------- ##
+# The generation of the mapping `state -> action' was once wrong in
+# extremely specific situations.  web2c.y exhibits this situation.
+# Below is a stripped version of the grammar.  It looks like one can
+# simplify it further, but just don't: it is tuned to exhibit a bug,
+# which disapears when applying sane grammar transformations.
+#
+# It used to be wrong on yydefact only:
+#
+# static const short yydefact[] =
+#  {
+# -       2,     0,     1,     0,     0,     2,     3,     2,     5,     4,
+# +       2,     0,     1,     0,     0,     0,     3,     2,     5,     4,
+#         0,     0
+#  };
+#
+# but let's check all the tables.
 
 
-# AT_TEST_CPP_GUARD_H([INPUT-FILE-BASE)
-# -------------------------------------
-m4_define([AT_TEST_CPP_GUARD_H],
-[AT_SETUP([Invalid CPP guards: $1])
 
 
-# Possibly create inner directories.
-dirname=`AS_DIRNAME([$1])`
-AS_MKDIR_P([$dirname])
+AT_SETUP([Web2c Actions])
 
 
-AT_DATA([$1.y],
-[%%
-dummy:
-])
+AT_KEYWORDS([report])
 
 
-AT_CHECK([bison --defines=$1.h $1.y])
+AT_DATA([input.y],
+[[%%
+statement:  struct_stat;
+struct_stat:  /* empty. */ | if else;
+if: "if" "const" "then" statement;
+else: "else" statement;
+%%
+]])
 
 
-# CPP should be happy with it.
-AT_CHECK([$CC -E $1.h], 0, [ignore])
+AT_CHECK([bison -v input.y -o input.c])
 
 
-AT_CLEANUP
-])
+# Check only the tables.  We don't use --no-parser, because it is
+# still to be implemented in the experimental branch of Bison.
+AT_CHECK([[sed -n 's/  *$//;/^static const.*\[\] =/,/^}/p' input.c]], 0,
+[[static const unsigned char yytranslate[] =
+{
+       0,     2,     2,     2,     2,     2,     2,     2,     2,     2,
+       2,     2,     2,     2,     2,     2,     2,     2,     2,     2,
+       2,     2,     2,     2,     2,     2,     2,     2,     2,     2,
+       2,     2,     2,     2,     2,     2,     2,     2,     2,     2,
+       2,     2,     2,     2,     2,     2,     2,     2,     2,     2,
+       2,     2,     2,     2,     2,     2,     2,     2,     2,     2,
+       2,     2,     2,     2,     2,     2,     2,     2,     2,     2,
+       2,     2,     2,     2,     2,     2,     2,     2,     2,     2,
+       2,     2,     2,     2,     2,     2,     2,     2,     2,     2,
+       2,     2,     2,     2,     2,     2,     2,     2,     2,     2,
+       2,     2,     2,     2,     2,     2,     2,     2,     2,     2,
+       2,     2,     2,     2,     2,     2,     2,     2,     2,     2,
+       2,     2,     2,     2,     2,     2,     2,     2,     2,     2,
+       2,     2,     2,     2,     2,     2,     2,     2,     2,     2,
+       2,     2,     2,     2,     2,     2,     2,     2,     2,     2,
+       2,     2,     2,     2,     2,     2,     2,     2,     2,     2,
+       2,     2,     2,     2,     2,     2,     2,     2,     2,     2,
+       2,     2,     2,     2,     2,     2,     2,     2,     2,     2,
+       2,     2,     2,     2,     2,     2,     2,     2,     2,     2,
+       2,     2,     2,     2,     2,     2,     2,     2,     2,     2,
+       2,     2,     2,     2,     2,     2,     2,     2,     2,     2,
+       2,     2,     2,     2,     2,     2,     2,     2,     2,     2,
+       2,     2,     2,     2,     2,     2,     2,     2,     2,     2,
+       2,     2,     2,     2,     2,     2,     2,     2,     2,     2,
+       2,     2,     2,     2,     2,     2,     2,     2,     2,     2,
+       2,     2,     2,     2,     2,     2,     1,     2,     3,     4,
+       5,     6
+};
+static const unsigned char yyprhs[] =
+{
+       0,     0,     3,     5,     6,     9,    14
+};
+static const signed char yyrhs[] =
+{
+       8,     0,    -1,     9,    -1,    -1,    10,    11,    -1,     3,
+       4,     5,     8,    -1,     6,     8,    -1
+};
+static const unsigned char yyrline[] =
+{
+       0,     2,     2,     3,     3,     4,     5
+};
+static const char *const yytname[] =
+{
+  "$", "error", "$undefined.", "\"if\"", "\"const\"", "\"then\"",
+  "\"else\"", "$axiom", "statement", "struct_stat", "if", "else", 0
+};
+static const short yytoknum[] =
+{
+       0,   256,   257,   258,   259,   260,   261,    -1
+};
+static const unsigned char yyr1[] =
+{
+       0,     7,     8,     9,     9,    10,    11
+};
+static const unsigned char yyr2[] =
+{
+       0,     2,     1,     0,     2,     4,     2
+};
+static const short yydefact[] =
+{
+       3,     0,     0,     2,     0,     0,     0,     3,     4,     3,
+       6,     5
+};
+static const short yydefgoto[] =
+{
+      -1,     2,     3,     4,     8
+};
+static const short yypact[] =
+{
+      -2,    -1,     4,-32768,     0,     2,-32768,    -2,-32768,    -2,
+  -32768,-32768
+};
+static const short yypgoto[] =
+{
+  -32768,    -7,-32768,-32768,-32768
+};
+static const short yytable[] =
+{
+      10,     1,    11,     5,     6,     0,     7,     9
+};
+static const short yycheck[] =
+{
+       7,     3,     9,     4,     0,    -1,     6,     5
+};
+static const unsigned char yystos[] =
+{
+       0,     3,     8,     9,    10,     4,     0,     6,    11,     5,
+       8,     8
+};
+]])
 
 
-AT_TEST_CPP_GUARD_H([input/input])
-AT_TEST_CPP_GUARD_H([9foo])
+AT_CLEANUP