]> git.saurik.com Git - bison.git/blobdiff - tests/torture.at
* data/bison.simple (b4_pure_if): New.
[bison.git] / tests / torture.at
index 2e0cfc926e18021b35543da101deaecbd5e81ec0..f536e4b4ec9bda69dce8e3befb62ce150eecddba 100644 (file)
@@ -57,7 +57,7 @@ EOF
 
 for my $size (1 .. $max)
   {
-    print "%token \"$size\" ", $size, "\n";
+    print "%token t$size $size \"$size\"\n";
   };
 
 print <<EOF;
@@ -128,7 +128,9 @@ AT_SETUP([Big triangle])
 
 # I have been able to go up to 2000 on my machine.
 # I tried 3000, a 29Mb grammar file, but then my system killed bison.
-AT_DATA_TRIANGULAR_GRAMMAR([input.y], [500])
+# With 500 and the new parser, which consume far too much memory,
+# it gets killed too.  Of course the parser is to be cleaned.
+AT_DATA_TRIANGULAR_GRAMMAR([input.y], [200])
 AT_CHECK([bison input.y -v -o input.c])
 AT_CHECK([$CC $CFLAGS $CPPFLAGS input.c -o input], 0, [], [ignore])
 AT_CHECK([./input])
@@ -164,7 +166,7 @@ EOF
 
 for my $size (1 .. $max)
   {
-    print "%token \"$size\" ", $size, "\n";
+    print "%token t$size $size \"$size\"\n";
   };
 
 print <<EOF;
@@ -272,12 +274,12 @@ EOF
 print
   wrap ("%type <val> ",
        "            ",
-       map { "token$_" } (1 .. $max)),
+       map { "n$_" } (1 .. $max)),
   "\n";
 
 for my $count (1 .. $max)
   {
-    print "%token \"$count\" $count\n";
+    print "%token t$count $count \"$count\"\n";
   };
 
 print <<EOF;
@@ -288,18 +290,18 @@ input:
 ;
 
 exp:
-  token1 "1" { assert (\@S|@1 == 1); }
+  n1 "1" { assert (\@S|@1 == 1); }
 EOF
 
 for my $count (2 .. $max)
   {
-    print "| token$count \"$count\" { assert (\@S|@1 == $count); }\n";
+    print "| n$count \"$count\" { assert (\@S|@1 == $count); }\n";
   };
 print ";\n";
 
 for my $count (1 .. $max)
   {
-    print "token$count: token { \$\$ = $count; };\n";
+    print "n$count: token { \$\$ = $count; };\n";
   };
 
 print <<EOF;