Vczh Free Script 2.0的Syngram庫完成
阿新 • • 發佈:2018-12-27
今天在測試封裝在FreeScript內的正則表示式介面的時候發現了一個垃圾收集器的Bug,不過很容易就看出來了,於是立刻fix掉。出錯的原因在於垃圾收集的時候只標記了運算堆疊的內容,忘了標記呼叫堆疊的內容。
這個新的Syngram包含了三個工具,分別是正則表示式、詞法分析器和語法分析器。
正則表示式分純、安全和貪婪三種。純正則表示式僅僅用於匹配,速度非常快(以前的測試表明一秒鐘可以匹配44萬次),但是沒有預查和捕獲等功能。安全和貪婪兩種正則表示式則是通過不同的搜尋方法來匹配字串的內容,雖然慢了一點,不過有了預查和捕獲等功能。之前的文章有提到過關於一個少回溯多捕獲的測試用例下的速度。安全分析法回溯將會佔用很多時間,而貪婪分析法則回溯基本是沒什麼消耗的。
詞法分析器則可以輸入不同的正則表示式,然後將字串切割成匹配和不匹配的段落,並告訴你匹配的部分實際上是匹配了哪一條正則表示式。這個功能在分析很多字串的時候都是相當好用的。
至於語法分析器,則是實現了一個上下文無關文法庫。語法分析器可以通過接受支援Choice、Sequence、Option等操作的上下文無關文法(介於BNF和EBNF中間的一種表示)來講一個字串分析之後執行使用者指定的語義規則。自己以前寫的Syngram for C++的一大優勢是支援左遞迴,使用Boost::Spirit來分析具有明顯左遞迴性質的文法的話你將不得不接受一個線性表來表示原本應該是樹的結構,這樣的話很難簡潔地搞定很多複雜的分析過程。Syngram for C++解決了這個問題。於是我將Syngram for C++包裝進了FreeScript,於是指令碼也具有這個能力來分析複雜但是有遞迴結構的字串了。
在此貼一個例子。正則表示式大家都很熟悉就不貼了,這裡貼一個語法分析器分析四則運算式子的FreeScript程式碼: 1 _run(_global,readfile(apppath++"Syngram.free"));
2 using Syngram;
3 4 Parser=Syner.new();
5 6 Parser.SetDiscard("\\s+");
7 Parser.SetToken("number","\\d+(.\\d+)?");
8 Parser.SetToken("left","\\(");
9 Parser.SetToken("right","\\)");
10 Parser.SetToken("add","\\+|\\-");
11 Parser.SetToken("mul","\\*|/" );
12 Parser.SetDefaultError("未知錯誤。");
13 Parser.SetUnexpectedEndError("表示式過早結束。");
14 15 Parser.SetRule("TERM","number",func(items)
16 {
17 return items[0];
18 });
19 Parser.SetRule("TERM","left EXP:\"括號後缺少表示式。\" right:\"缺少右括號。\"",func(items)
20 {
21 return items[1];
22 });
23 Parser.SetRule("TERM","add TERM:\" 單目操作符後缺少表示式。\"",func(items)
24 {
25 if(items[0]=="+")
26 return items[1];
27 else28 return-items[1];
29 });
30 Parser.SetRule("FACTOR","TERM",func(items)
31 {
32 return items[0];
33 });
34 Parser.SetRule("FACTOR","FACTOR mul TERM:\"雙目操作符後缺少表示式。\"",func(items)
35 {
36 if(items[1]=="*")
37 return items[0]*items[2];
38 else39 return items[0]/items[2];
40 });
41 Parser.SetRule("EXP","FACTOR",func(items)
42 {
43 return items[0];
44 });
45 Parser.SetRule("EXP","EXP add FACTOR:\"雙目操作符後缺少表示式。\"",func(items)
46 {
47 if(items[1]=="+")
48 return items[0]+items[2];
49 else50 return items[0]-items[2];
51 });
52 53 Parser.Initialize("EXP");
54 55 try_catch(
56 func()
57 {
58 writeln(Parser.Parse(read("輸入一個四則運算式子:")));
59 },
60 func(errmsg)
61 {
62 writeln("格式錯誤:",errmsg);
63 }
64 ); 這段程式輸入一個四則運算式子,如果輸入錯誤則顯示配置進去的相應的錯誤資訊,否則則使用繫結的語義規則(Parse.SetRule中的func(items))來計算整個式子的結果。Syngram for C++的文法並不是使用字串表示的,但是Syner在開發的時候FreeScript尚未實現操作符過載,於是就算了,懶得重新封裝一個。封裝的那一層用了Syngram for C++實現了字串到文法的分析器,然後套上一層新的Syngram for C++來分析FreeScript的程式碼所要分析的內容。事實上這個分析器是Syngram2。
好了,現在貼出Syngram for FreeScript的程式碼: 1 /****************************************************************
2 本庫需要【Collections.free】的支援
3 4 RegexpMatch:正則表示式匹配結果
5 Captures :匿名捕獲只讀表
6 Storages :命名捕獲多值表
7 Position :匹配位置
8 Text :匹配結果
9 Matched :是否成功匹配
10 RegexpBase:正則表示式基類
11 Find({value}Text) :在字串中尋找所有匹配的只讀表
12 Split({value}Text) :使用正則表示式分割字串的只讀表
13 Cut({value}Text) :將字串分割成匹配或不匹配正則表示式的部分的只讀表
14 Match({value}Text) :在字串中尋找第一個匹配
15 MatchHead({value}Text) :返回從第一個字元開始的匹配
16 MatchWhole({value}Text) :返回匹配整個字串的匹配
17 18 RegexpPure:純匹配正則表示式
19 constructor({value}Expression) :使用字串構造正則表示式
20 RegexpSafe:安全正則表示式
21 constructor({value}Expression) :使用字串構造正則表示式
22 RegexpGreed:貪婪正則表示式
23 constructor({value}Expression) :使用字串構造正則表示式
24 25 LexerToken:詞法分析器記號
26 Data :自定義資料
27 Position :位置
28 Text :記號內容
29 Lexer:詞法分析器
30 constructor() :構造詞法分析器
31 Add({value}Exp,Data) :新增型別並繫結自定義資料
32 Initialize() :初始化
33 Parse({value}Input) :分析字串,返回LexerToken的只讀表
34 35 36 Syner:上下文無關文法分析器
37 SetDiscard(Regex) :設定詞法分析後需要刪掉的記號的正則表示式
38 SetToken(Name,Regex) :設定有效記號的名字和對應的正則表示式
39 SetRule(Name,Rule,Func) :設定推導式的名字、推導式和語義回撥函式
40 Initialize(Nonterminator) :設定初始符號並初始化
41 IsReady() :返回是否已經初始化
42 Parse(Text) :分析字串
43 SetDefaultError(Text) :一般錯誤返回的訊息
44 SetUnexpectedEndError(Text) :過早結束返回的訊息
45 ****************************************************************/ 46 Syngram=namespace 47 {
48 fixed RegexpMatch=class()
49 {
50 local Captures=null;
51 local Storages=null;
52 local Position=null;
53 local Text=null;
54 local Matched=null;
55 56 local constructor=func(Item)
57 {
58 Matched=matched(Item);
59 Text=text(Item);
60 Position=pos(Item);
61 Captures=ReadonlyList.new(catched(Item));
62 Storages=MultiMap.new();
63 for(name in allstorages(Item))
64 Storages.Add(name,storage(Item,name));
65 };
66 };
67 68 fixed RegexpBase=class()
69 {
70 local Find=null;
71 local Split=null;
72 local Cut=null;
73 local Match=null;
74 local MatchHead=null;
75 local MatchWhole=null;
76 77 local constructor=func()
78 {
79 local Engine=null;
80 81 local TransformResult=multifunc
82 {
83 func({array}Items)
84 {
85 return ReadonlyList.new(Items).Map(func(Item)return RegexpMatch.new(Item););
86 }
87 func(Item)
88 {
89 return RegexpMatch.new(Item);
90 }
91 };
92 93 Find=func({value}Text)
94 {
95 return TransformResult(find(Engine,Text));
96 };
97 98 Split=func({value}Text)
99 {
100 return TransformResult(split(Engine,Text));
101 };
102 103 Cut=func({value}Text)
104 {
105 return TransformResult(cut(Engine,Text));
106 };
107 108 Match=func({value}Text)
109 {
110 return TransformResult(match(Engine,Text));
111 };
112 113 MatchHead=func({value}Text)
114 {
115 return TransformResult(matchhead(Engine,Text));
116 };
117 118 MatchWhole=func({value}Text)
119 {
120 return TransformResult(matchwhole(Engine,Text));
121 };
122 123 return func(Regexp)
124 {
125 Engine=Regexp;
126 };
127 }();
128 };
129 130 fixed RegexpPure=class(RegexpBase)
131 {
132 local constructor=func({value}Expression)
133 {
134 base.constructor(regexppure(Expression));
135 };
136 };
137 138 fixed RegexpSafe=class(RegexpBase)
139 {
140 local constructor=func({value}Expression)
141 {
142 base.constructor(regexpsafe(Expression));
143 };
144 };
145 146 fixed RegexpGreed=class(RegexpBase)
147 {
148 local constructor=func({value}Expression)
149 {
150 base.constructor(regexpgreed(Expression));
151 };
152 };
153 154 fixed LexerToken=class()
155 {
156 local Data=null;
157 local Position=-1;
158 local Text="";
159 };
160 161 fixed Lexer=class()
162 {
163 local Add=null;
164 local Initialize=null;
165 local Parse=null;
166 167 local constructor=func()
168 {
169 local DataMap=Map.new();
170 local Engine=lexercreate();
171 172 local TransformResult=func(Item)
173 {
174 local Result=LexerToken.new();
175 Result.Position=Item.Position;
176 Result.Text=Item.Text;
177 if(Item.Type!=-1)
178 Result.Data=DataMap[Item.Type];
179 return Result;
180 };
181 182 Add=func({value}Expression,Data)
183 {
184 DataMap.Add(lexeradd(Engine,Expression),Data);
185 };
186 187 Initialize=func()
188 {
189 lexerbuild(Engine);
190 };
191 192 Parse=func({value}Text)
193 {
194 return ReadonlyList.new(lexerparse(Engine,Text)).Map(TransformResult);
195 };
196 197 return func()
198 {
199 };
200 }();
201 };
202 203 fixed Syner=class()
204 {
205 local SetDiscard=null; /*設定詞法分析後需要刪掉的記號型別*/206 local SetToken=null; /*設定有效記號*/207 local SetRule=null; /*設定推到規則以及繫結該規則的語義處理函式*/208 local Initialize=null; /*設定起始非終結符並完成整個分析器的建立*/209 local IsReady=null; /*返回是否已經完成分析器的建立*/210 local Parse=null; /*分析一個字串並返回該字串經過語義處理函式處理的結果*/211 local SetDefaultError=null; /*設定一般錯誤丟擲的異常*/212 local SetUnexpectedEndError=null; /*設定由於表示式不完整導致的錯誤丟擲的異常*/213 214 constructor=func()
215 {
216 local _IsReady=false;
217 local _Grammar="";
218 local _Processors=[];
219 local _RuleCount=0;
220 local _Analyzer=null;
221 222 local _TextProcess=func(Text)
223 {
224 local Result="";
225 for(c in Text)
226 {
227 if(c=="\"")Result=Result++"\\\"";
228 else Result=Result++c;
229 }
230 return Result;
231 };
232 233 SetDiscard=func(Regex)
234 {
235 if(!_IsReady)
236 {
237 _Grammar=_Grammar++"discard "++Regex++"\r\n";
238 }
239 };
240 241 SetToken=func(Name,Regex)
242 {
243 if(!_IsReady)
244 {
245 _Grammar=_Grammar++Name++"="++Regex++"\r\n";
246 }
247 };
248 249 SetRule=func(Name,Rule,Func)
250 {
251 if(!_IsReady)
252 {
253 local NonTerminator=Name++"._"++_RuleCount;
254 _RuleCount=_RuleCount+1;
255 _Grammar=_Grammar++NonTerminator++"->"++Rule++"\r\n";
256 _Processors[#_Processors:0]=[[NonTerminator,Func]];
257 }
258 };
259 260 Initialize=func(NonTerminator)
261 {
262 if(!_IsReady)
263 {
264 _Grammar=_Grammar++"init "++NonTerminator;
265 _Analyzer=buildsyner(_Grammar,_Processors);
266 _IsReady=true;
267 }
268 };
269 270 IsReady=func()
271 {
272 return _IsReady;
273 };
274 275 Parse=func(Text)
276 {
277 return runsyner(_Analyzer,Text);
278 };
279 280 SetDefaultError=func(Text)
281 {
282 if(!_IsReady)
283 {
284 _Grammar=_Grammar++"default \""++_TextProcess(Text)++"\"\r\n";
285 }
286 };
287 288 SetUnexpectedEndError=func(Text)
289 {
290 if(!_IsReady)
291 {
292 _Grammar=_Grammar++"end \""++_TextProcess(Text)++"\"\r\n";
293 }
這個新的Syngram包含了三個工具,分別是正則表示式、詞法分析器和語法分析器。
正則表示式分純、安全和貪婪三種。純正則表示式僅僅用於匹配,速度非常快(以前的測試表明一秒鐘可以匹配44萬次),但是沒有預查和捕獲等功能。安全和貪婪兩種正則表示式則是通過不同的搜尋方法來匹配字串的內容,雖然慢了一點,不過有了預查和捕獲等功能。之前的文章有提到過關於一個少回溯多捕獲的測試用例下的速度。安全分析法回溯將會佔用很多時間,而貪婪分析法則回溯基本是沒什麼消耗的。
詞法分析器則可以輸入不同的正則表示式,然後將字串切割成匹配和不匹配的段落,並告訴你匹配的部分實際上是匹配了哪一條正則表示式。這個功能在分析很多字串的時候都是相當好用的。
至於語法分析器,則是實現了一個上下文無關文法庫。語法分析器可以通過接受支援Choice、Sequence、Option等操作的上下文無關文法(介於BNF和EBNF中間的一種表示)來講一個字串分析之後執行使用者指定的語義規則。自己以前寫的Syngram for C++的一大優勢是支援左遞迴,使用Boost::Spirit來分析具有明顯左遞迴性質的文法的話你將不得不接受一個線性表來表示原本應該是樹的結構,這樣的話很難簡潔地搞定很多複雜的分析過程。Syngram for C++解決了這個問題。於是我將Syngram for C++包裝進了FreeScript,於是指令碼也具有這個能力來分析複雜但是有遞迴結構的字串了。
在此貼一個例子。正則表示式大家都很熟悉就不貼了,這裡貼一個語法分析器分析四則運算式子的FreeScript程式碼: 1
2 using Syngram;
3 4 Parser=Syner.new();
5 6 Parser.SetDiscard("\\s+");
7 Parser.SetToken("number","\\d+(.\\d+)?");
8 Parser.SetToken("left","\\(");
9 Parser.SetToken("right","\\)");
10 Parser.SetToken("add","\\+|\\-");
11 Parser.SetToken("mul","\\*|/"
12 Parser.SetDefaultError("未知錯誤。");
13 Parser.SetUnexpectedEndError("表示式過早結束。");
14 15 Parser.SetRule("TERM","number",func(items)
16 {
17 return items[0];
18 });
19 Parser.SetRule("TERM","left EXP:\"括號後缺少表示式。\" right:\"缺少右括號。\"",func(items)
20 {
21 return items[1];
22 });
23 Parser.SetRule("TERM","add TERM:\"
24 {
25 if(items[0]=="+")
26 return items[1];
27 else28 return-items[1];
29 });
30 Parser.SetRule("FACTOR","TERM",func(items)
31 {
32 return items[0];
33 });
34 Parser.SetRule("FACTOR","FACTOR mul TERM:\"雙目操作符後缺少表示式。\"",func(items)
35 {
36 if(items[1]=="*")
37 return items[0]*items[2];
38 else39 return items[0]/items[2];
40 });
41 Parser.SetRule("EXP","FACTOR",func(items)
42 {
43 return items[0];
44 });
45 Parser.SetRule("EXP","EXP add FACTOR:\"雙目操作符後缺少表示式。\"",func(items)
46 {
47 if(items[1]=="+")
48 return items[0]+items[2];
49 else50 return items[0]-items[2];
51 });
52 53 Parser.Initialize("EXP");
54 55 try_catch(
56 func()
57 {
58 writeln(Parser.Parse(read("輸入一個四則運算式子:")));
59 },
60 func(errmsg)
61 {
62 writeln("格式錯誤:",errmsg);
63 }
64 ); 這段程式輸入一個四則運算式子,如果輸入錯誤則顯示配置進去的相應的錯誤資訊,否則則使用繫結的語義規則(Parse.SetRule中的func(items))來計算整個式子的結果。Syngram for C++的文法並不是使用字串表示的,但是Syner在開發的時候FreeScript尚未實現操作符過載,於是就算了,懶得重新封裝一個。封裝的那一層用了Syngram for C++實現了字串到文法的分析器,然後套上一層新的Syngram for C++來分析FreeScript的程式碼所要分析的內容。事實上這個分析器是Syngram2。
好了,現在貼出Syngram for FreeScript的程式碼: 1 /****************************************************************
2 本庫需要【Collections.free】的支援
3 4 RegexpMatch:正則表示式匹配結果
5 Captures :匿名捕獲只讀表
6 Storages :命名捕獲多值表
7 Position :匹配位置
8 Text :匹配結果
9 Matched :是否成功匹配
10 RegexpBase:正則表示式基類
11 Find({value}Text) :在字串中尋找所有匹配的只讀表
12 Split({value}Text) :使用正則表示式分割字串的只讀表
13 Cut({value}Text) :將字串分割成匹配或不匹配正則表示式的部分的只讀表
14 Match({value}Text) :在字串中尋找第一個匹配
15 MatchHead({value}Text) :返回從第一個字元開始的匹配
16 MatchWhole({value}Text) :返回匹配整個字串的匹配
17 18 RegexpPure:純匹配正則表示式
19 constructor({value}Expression) :使用字串構造正則表示式
20 RegexpSafe:安全正則表示式
21 constructor({value}Expression) :使用字串構造正則表示式
22 RegexpGreed:貪婪正則表示式
23 constructor({value}Expression) :使用字串構造正則表示式
24 25 LexerToken:詞法分析器記號
26 Data :自定義資料
27 Position :位置
28 Text :記號內容
29 Lexer:詞法分析器
30 constructor() :構造詞法分析器
31 Add({value}Exp,Data) :新增型別並繫結自定義資料
32 Initialize() :初始化
33 Parse({value}Input) :分析字串,返回LexerToken的只讀表
34 35 36 Syner:上下文無關文法分析器
37 SetDiscard(Regex) :設定詞法分析後需要刪掉的記號的正則表示式
38 SetToken(Name,Regex) :設定有效記號的名字和對應的正則表示式
39 SetRule(Name,Rule,Func) :設定推導式的名字、推導式和語義回撥函式
40 Initialize(Nonterminator) :設定初始符號並初始化
41 IsReady() :返回是否已經初始化
42 Parse(Text) :分析字串
43 SetDefaultError(Text) :一般錯誤返回的訊息
44 SetUnexpectedEndError(Text) :過早結束返回的訊息
45 ****************************************************************/ 46 Syngram=namespace 47 {
48 fixed RegexpMatch=class()
49 {
50 local Captures=null;
51 local Storages=null;
52 local Position=null;
53 local Text=null;
54 local Matched=null;
55 56 local constructor=func(Item)
57 {
58 Matched=matched(Item);
59 Text=text(Item);
60 Position=pos(Item);
61 Captures=ReadonlyList.new(catched(Item));
62 Storages=MultiMap.new();
63 for(name in allstorages(Item))
64 Storages.Add(name,storage(Item,name));
65 };
66 };
67 68 fixed RegexpBase=class()
69 {
70 local Find=null;
71 local Split=null;
72 local Cut=null;
73 local Match=null;
74 local MatchHead=null;
75 local MatchWhole=null;
76 77 local constructor=func()
78 {
79 local Engine=null;
80 81 local TransformResult=multifunc
82 {
83 func({array}Items)
84 {
85 return ReadonlyList.new(Items).Map(func(Item)return RegexpMatch.new(Item););
86 }
87 func(Item)
88 {
89 return RegexpMatch.new(Item);
90 }
91 };
92 93 Find=func({value}Text)
94 {
95 return TransformResult(find(Engine,Text));
96 };
97 98 Split=func({value}Text)
99 {
100 return TransformResult(split(Engine,Text));
101 };
102 103 Cut=func({value}Text)
104 {
105 return TransformResult(cut(Engine,Text));
106 };
107 108 Match=func({value}Text)
109 {
110 return TransformResult(match(Engine,Text));
111 };
112 113 MatchHead=func({value}Text)
114 {
115 return TransformResult(matchhead(Engine,Text));
116 };
117 118 MatchWhole=func({value}Text)
119 {
120 return TransformResult(matchwhole(Engine,Text));
121 };
122 123 return func(Regexp)
124 {
125 Engine=Regexp;
126 };
127 }();
128 };
129 130 fixed RegexpPure=class(RegexpBase)
131 {
132 local constructor=func({value}Expression)
133 {
134 base.constructor(regexppure(Expression));
135 };
136 };
137 138 fixed RegexpSafe=class(RegexpBase)
139 {
140 local constructor=func({value}Expression)
141 {
142 base.constructor(regexpsafe(Expression));
143 };
144 };
145 146 fixed RegexpGreed=class(RegexpBase)
147 {
148 local constructor=func({value}Expression)
149 {
150 base.constructor(regexpgreed(Expression));
151 };
152 };
153 154 fixed LexerToken=class()
155 {
156 local Data=null;
157 local Position=-1;
158 local Text="";
159 };
160 161 fixed Lexer=class()
162 {
163 local Add=null;
164 local Initialize=null;
165 local Parse=null;
166 167 local constructor=func()
168 {
169 local DataMap=Map.new();
170 local Engine=lexercreate();
171 172 local TransformResult=func(Item)
173 {
174 local Result=LexerToken.new();
175 Result.Position=Item.Position;
176 Result.Text=Item.Text;
177 if(Item.Type!=-1)
178 Result.Data=DataMap[Item.Type];
179 return Result;
180 };
181 182 Add=func({value}Expression,Data)
183 {
184 DataMap.Add(lexeradd(Engine,Expression),Data);
185 };
186 187 Initialize=func()
188 {
189 lexerbuild(Engine);
190 };
191 192 Parse=func({value}Text)
193 {
194 return ReadonlyList.new(lexerparse(Engine,Text)).Map(TransformResult);
195 };
196 197 return func()
198 {
199 };
200 }();
201 };
202 203 fixed Syner=class()
204 {
205 local SetDiscard=null; /*設定詞法分析後需要刪掉的記號型別*/206 local SetToken=null; /*設定有效記號*/207 local SetRule=null; /*設定推到規則以及繫結該規則的語義處理函式*/208 local Initialize=null; /*設定起始非終結符並完成整個分析器的建立*/209 local IsReady=null; /*返回是否已經完成分析器的建立*/210 local Parse=null; /*分析一個字串並返回該字串經過語義處理函式處理的結果*/211 local SetDefaultError=null; /*設定一般錯誤丟擲的異常*/212 local SetUnexpectedEndError=null; /*設定由於表示式不完整導致的錯誤丟擲的異常*/213 214 constructor=func()
215 {
216 local _IsReady=false;
217 local _Grammar="";
218 local _Processors=[];
219 local _RuleCount=0;
220 local _Analyzer=null;
221 222 local _TextProcess=func(Text)
223 {
224 local Result="";
225 for(c in Text)
226 {
227 if(c=="\"")Result=Result++"\\\"";
228 else Result=Result++c;
229 }
230 return Result;
231 };
232 233 SetDiscard=func(Regex)
234 {
235 if(!_IsReady)
236 {
237 _Grammar=_Grammar++"discard "++Regex++"\r\n";
238 }
239 };
240 241 SetToken=func(Name,Regex)
242 {
243 if(!_IsReady)
244 {
245 _Grammar=_Grammar++Name++"="++Regex++"\r\n";
246 }
247 };
248 249 SetRule=func(Name,Rule,Func)
250 {
251 if(!_IsReady)
252 {
253 local NonTerminator=Name++"._"++_RuleCount;
254 _RuleCount=_RuleCount+1;
255 _Grammar=_Grammar++NonTerminator++"->"++Rule++"\r\n";
256 _Processors[#_Processors:0]=[[NonTerminator,Func]];
257 }
258 };
259 260 Initialize=func(NonTerminator)
261 {
262 if(!_IsReady)
263 {
264 _Grammar=_Grammar++"init "++NonTerminator;
265 _Analyzer=buildsyner(_Grammar,_Processors);
266 _IsReady=true;
267 }
268 };
269 270 IsReady=func()
271 {
272 return _IsReady;
273 };
274 275 Parse=func(Text)
276 {
277 return runsyner(_Analyzer,Text);
278 };
279 280 SetDefaultError=func(Text)
281 {
282 if(!_IsReady)
283 {
284 _Grammar=_Grammar++"default \""++_TextProcess(Text)++"\"\r\n";
285 }
286 };
287 288 SetUnexpectedEndError=func(Text)
289 {
290 if(!_IsReady)
291 {
292 _Grammar=_Grammar++"end \""++_TextProcess(Text)++"\"\r\n";
293 }