]> git.saurik.com Git - bison.git/blobdiff - tests/torture.at
* data/bison.simple (b4_pure_if): New.
[bison.git] / tests / torture.at
index deb5ab1d178726fe37115c472b776e25e9d6e9ff..f536e4b4ec9bda69dce8e3befb62ce150eecddba 100644 (file)
@@ -27,9 +27,6 @@ AT_BANNER([[Torture Tests.]])
 # -------------------------------------------
 # Create FILE-NAME, containing a self checking parser for a huge
 # triangular grammar.
-# FIXME: The `10 *' below are there to avoid clashes with predefined
-# tokens.  These clashes should be exercised, I'm afraid something
-# is broken wrt previous Bisons.
 m4_define([AT_DATA_TRIANGULAR_GRAMMAR],
 [AT_DATA([[gengram.pl]],
 [[#! /usr/bin/perl -w
@@ -60,7 +57,7 @@ EOF
 
 for my $size (1 .. $max)
   {
-    print "%token \"$size\" ", $size, "\n";
+    print "%token t$size $size \"$size\"\n";
   };
 
 print <<EOF;
@@ -131,7 +128,9 @@ AT_SETUP([Big triangle])
 
 # I have been able to go up to 2000 on my machine.
 # I tried 3000, a 29Mb grammar file, but then my system killed bison.
-AT_DATA_TRIANGULAR_GRAMMAR([input.y], [500])
+# With 500 and the new parser, which consume far too much memory,
+# it gets killed too.  Of course the parser is to be cleaned.
+AT_DATA_TRIANGULAR_GRAMMAR([input.y], [200])
 AT_CHECK([bison input.y -v -o input.c])
 AT_CHECK([$CC $CFLAGS $CPPFLAGS input.c -o input], 0, [], [ignore])
 AT_CHECK([./input])
@@ -144,9 +143,6 @@ AT_CLEANUP
 # -------------------------------------------
 # Create FILE-NAME, containing a self checking parser for a huge
 # horizontal grammar.
-# FIXME: The `10 *' below are there to avoid clashes with predefined
-# tokens.  These clashes should be exercised, I'm afraid something
-# is broken wrt previous Bisons.
 m4_define([AT_DATA_HORIZONTAL_GRAMMAR],
 [AT_DATA([[gengram.pl]],
 [[#! /usr/bin/perl -w
@@ -170,7 +166,7 @@ EOF
 
 for my $size (1 .. $max)
   {
-    print "%token \"$size\" ", $size, "\n";
+    print "%token t$size $size \"$size\"\n";
   };
 
 print <<EOF;
@@ -242,6 +238,125 @@ AT_CLEANUP
 
 
 
+# AT_DATA_LOOKAHEADS_GRAMMAR(FILE-NAME, SIZE)
+# -------------------------------------------
+# Create FILE-NAME, containing a self checking parser for a grammar
+# requiring SIZE lookaheads.
+m4_define([AT_DATA_LOOKAHEADS_GRAMMAR],
+[AT_DATA([[gengram.pl]],
+[[#! /usr/bin/perl -w
+
+use strict;
+use Text::Wrap;
+my $max = $ARGV[0] || 10;
+
+print <<EOF;
+%{
+#include <stdio.h>
+#include <stdlib.h>
+#include <assert.h>
+
+#define YYERROR_VERBOSE 1
+#define YYDEBUG 1
+
+static int yylex (void);
+static void yyerror (const char *msg);
+%}
+%union
+{
+  int val;
+};
+
+%type <val> input exp
+%token token
+EOF
+
+print
+  wrap ("%type <val> ",
+       "            ",
+       map { "n$_" } (1 .. $max)),
+  "\n";
+
+for my $count (1 .. $max)
+  {
+    print "%token t$count $count \"$count\"\n";
+  };
+
+print <<EOF;
+%%
+input:
+  exp        { assert (\@S|@1 == 1); \$\$ = \@S|@1; }
+| input exp  { assert (\@S|@2 == \@S|@1 + 1); \$\$ = \@S|@2; }
+;
+
+exp:
+  n1 "1" { assert (\@S|@1 == 1); }
+EOF
+
+for my $count (2 .. $max)
+  {
+    print "| n$count \"$count\" { assert (\@S|@1 == $count); }\n";
+  };
+print ";\n";
+
+for my $count (1 .. $max)
+  {
+    print "n$count: token { \$\$ = $count; };\n";
+  };
+
+print <<EOF;
+%%
+static int
+yylex (void)
+{
+  static int return_token = 1;
+  static int counter = 1;
+  if (counter > $max)
+    return 0;
+  if (return_token)
+    {
+      return_token = 0;
+      return token;
+    }
+  return_token = 1;
+  return counter++;
+}
+
+static void
+yyerror (const char *msg)
+{
+  fprintf (stderr, "%s\\n", msg);
+}
+
+int
+main (void)
+{
+  yydebug = !!getenv ("YYDEBUG");
+  return yyparse ();
+}
+EOF
+]])
+
+AT_CHECK([perl -w ./gengram.pl $2 || exit 77], 0, [stdout])
+mv stdout $1
+])
+
+
+## ----------------- ##
+## Many lookaheads.  ##
+## ----------------- ##
+
+AT_SETUP([Many lookaheads])
+
+AT_DATA_LOOKAHEADS_GRAMMAR([input.y], [1000])
+AT_CHECK([bison input.y -v -o input.c])
+AT_CHECK([$CC $CFLAGS $CPPFLAGS input.c -o input], 0, [], [ignore])
+AT_CHECK([./input])
+
+AT_CLEANUP
+
+
+
 # AT_DATA_STACK_TORTURE(C-PROLOGUE)
 # ---------------------------------
 # A parser specialized in torturing the stack size.