Lexer; subtly wrong; no makefile
This commit is contained in:
parent
e62479133b
commit
19e1f5cdb6
19
src/grammar/README.md
Normal file
19
src/grammar/README.md
Normal file
@ -0,0 +1,19 @@
|
|||||||
|
Reference grammar.
|
||||||
|
|
||||||
|
Uses [antlr4](http://www.antlr.org/) and a custom Rust tool to compare
|
||||||
|
ASTs/token streams generated.
|
||||||
|
|
||||||
|
To use:
|
||||||
|
|
||||||
|
```
|
||||||
|
antlr4 RustLexer.g4
|
||||||
|
javac *.java
|
||||||
|
rustc -O verify.rs
|
||||||
|
for file in ../*/**.rs; do
|
||||||
|
echo $file;
|
||||||
|
grun RustLexer tokens -tokens < $file | ./verify $file || break
|
||||||
|
done
|
||||||
|
```
|
||||||
|
|
||||||
|
Note That the `../*/**.rs` glob will match every `*.rs` file in the above
|
||||||
|
directory and all of its recursive children. This is a zsh extension.
|
165
src/grammar/RustLexer.g4
Normal file
165
src/grammar/RustLexer.g4
Normal file
@ -0,0 +1,165 @@
|
|||||||
|
lexer grammar RustLexer;
|
||||||
|
|
||||||
|
/* Note: due to antlr limitations, we can't represent XID_start and
|
||||||
|
* XID_continue properly. ASCII-only substitute. */
|
||||||
|
|
||||||
|
fragment XID_start : [_a-zA-Z] ;
|
||||||
|
fragment XID_continue : [_a-zA-Z0-9] ;
|
||||||
|
|
||||||
|
/* Expression-operator symbols */
|
||||||
|
|
||||||
|
EQ : '=' ;
|
||||||
|
LT : '<' ;
|
||||||
|
LE : '<=' ;
|
||||||
|
EQEQ : '==' ;
|
||||||
|
NE : '!=' ;
|
||||||
|
GE : '>=' ;
|
||||||
|
GT : '>' ;
|
||||||
|
ANDAND : '&&' ;
|
||||||
|
OROR : '||' ;
|
||||||
|
NOT : '!' ;
|
||||||
|
TILDE : '~' ;
|
||||||
|
PLUS : '+' ;
|
||||||
|
MINUS : '-' ;
|
||||||
|
STAR : '*' ;
|
||||||
|
SLASH : '/' ;
|
||||||
|
PERCENT : '%' ;
|
||||||
|
CARET : '^' ;
|
||||||
|
AND : '&' ;
|
||||||
|
OR : '|' ;
|
||||||
|
SHL : '<<' ;
|
||||||
|
SHR : '>>' ;
|
||||||
|
|
||||||
|
BINOP
|
||||||
|
: PLUS
|
||||||
|
| MINUS
|
||||||
|
| STAR
|
||||||
|
| PERCENT
|
||||||
|
| CARET
|
||||||
|
| AND
|
||||||
|
| OR
|
||||||
|
| SHL
|
||||||
|
| SHR
|
||||||
|
;
|
||||||
|
|
||||||
|
BINOPEQ : BINOP EQ ;
|
||||||
|
|
||||||
|
/* "Structural symbols" */
|
||||||
|
|
||||||
|
AT : '@' ;
|
||||||
|
DOT : '.' ;
|
||||||
|
DOTDOT : '..' ;
|
||||||
|
DOTDOTDOT : '...' ;
|
||||||
|
COMMA : ',' ;
|
||||||
|
SEMI : ';' ;
|
||||||
|
COLON : ':' ;
|
||||||
|
MOD_SEP : '::' ;
|
||||||
|
RARROW : '->' ;
|
||||||
|
FAT_ARROW : '=>' ;
|
||||||
|
LPAREN : '(' ;
|
||||||
|
RPAREN : ')' ;
|
||||||
|
LBRACKET : '[' ;
|
||||||
|
RBRACKET : ']' ;
|
||||||
|
LBRACE : '{' ;
|
||||||
|
RBRACE : '}' ;
|
||||||
|
POUND : '#';
|
||||||
|
DOLLAR : '$' ;
|
||||||
|
UNDERSCORE : '_' ;
|
||||||
|
|
||||||
|
// Literals
|
||||||
|
|
||||||
|
fragment HEXIT
|
||||||
|
: [0-9a-fA-F]
|
||||||
|
;
|
||||||
|
|
||||||
|
fragment CHAR_ESCAPE
|
||||||
|
: [nrt\\'"0]
|
||||||
|
| [xX] HEXIT HEXIT
|
||||||
|
| 'u' HEXIT HEXIT HEXIT HEXIT
|
||||||
|
| 'U' HEXIT HEXIT HEXIT HEXIT HEXIT HEXIT HEXIT HEXIT
|
||||||
|
;
|
||||||
|
|
||||||
|
LIT_CHAR
|
||||||
|
: '\'' ( '\\' CHAR_ESCAPE | ~[\\'\n\t\r] ) '\''
|
||||||
|
;
|
||||||
|
|
||||||
|
INT_SUFFIX
|
||||||
|
: 'i'
|
||||||
|
| 'i8'
|
||||||
|
| 'i16'
|
||||||
|
| 'i32'
|
||||||
|
| 'i64'
|
||||||
|
| 'u'
|
||||||
|
| 'u8'
|
||||||
|
| 'u16'
|
||||||
|
| 'u32'
|
||||||
|
| 'u64'
|
||||||
|
;
|
||||||
|
|
||||||
|
LIT_INTEGER
|
||||||
|
: [0-9][0-9_]* INT_SUFFIX?
|
||||||
|
| '0b' [01][01_]* INT_SUFFIX?
|
||||||
|
| '0o' [0-7][0-7_]* INT_SUFFIX?
|
||||||
|
| '0x' [0-9a-fA-F][0-9a-fA-F_]* INT_SUFFIX?
|
||||||
|
;
|
||||||
|
|
||||||
|
FLOAT_SUFFIX
|
||||||
|
: 'f32'
|
||||||
|
| 'f64'
|
||||||
|
| 'f128'
|
||||||
|
;
|
||||||
|
|
||||||
|
LIT_FLOAT
|
||||||
|
: [0-9][0-9_]* ('.' | ('.' [0-9][0-9_]*)? ([eE] [-+]? [0-9][0-9_]*)? FLOAT_SUFFIX?)
|
||||||
|
;
|
||||||
|
|
||||||
|
LIT_STR
|
||||||
|
: '"' ('\\\n' | '\\\r\n' | '\\' CHAR_ESCAPE | .)*? '"'
|
||||||
|
;
|
||||||
|
|
||||||
|
LIT_BINARY : 'b' LIT_STR ;
|
||||||
|
LIT_BINARY_RAW : 'b' LIT_STR_RAW ;
|
||||||
|
|
||||||
|
/* this is a bit messy */
|
||||||
|
|
||||||
|
fragment LIT_STR_RAW_INNER
|
||||||
|
: '"' .*? '"'
|
||||||
|
| LIT_STR_RAW_INNER2
|
||||||
|
;
|
||||||
|
|
||||||
|
fragment LIT_STR_RAW_INNER2
|
||||||
|
: POUND LIT_STR_RAW_INNER POUND
|
||||||
|
;
|
||||||
|
|
||||||
|
LIT_STR_RAW
|
||||||
|
: 'r' LIT_STR_RAW_INNER
|
||||||
|
;
|
||||||
|
|
||||||
|
IDENT : XID_start XID_continue* ;
|
||||||
|
|
||||||
|
LIFETIME : '\'' IDENT ;
|
||||||
|
|
||||||
|
WHITESPACE : [ \r\n\t]+ ;
|
||||||
|
|
||||||
|
COMMENT
|
||||||
|
: '//' ~[\r\n]*
|
||||||
|
| '////' ~[\r\n]*
|
||||||
|
| BLOCK_COMMENT
|
||||||
|
;
|
||||||
|
|
||||||
|
mode DOCCOMMENT;
|
||||||
|
|
||||||
|
fragment DOC_BLOCK_COMMENT
|
||||||
|
: ('/**' | '/*!') (DOC_BLOCK_COMMENT | .)*? '*/'
|
||||||
|
;
|
||||||
|
|
||||||
|
DOC_COMMENT
|
||||||
|
: '///' ~[\r\n]*
|
||||||
|
| '//!' ~[\r\n]*
|
||||||
|
| DOC_BLOCK_COMMENT
|
||||||
|
;
|
||||||
|
|
||||||
|
fragment BLOCK_COMMENT
|
||||||
|
: '/*' (BLOCK_COMMENT | .)*? '*/'
|
||||||
|
;
|
||||||
|
|
217
src/grammar/verify.rs
Normal file
217
src/grammar/verify.rs
Normal file
@ -0,0 +1,217 @@
|
|||||||
|
#![feature(globs, phase, macro_rules)]
|
||||||
|
|
||||||
|
extern crate syntax;
|
||||||
|
extern crate rustc;
|
||||||
|
|
||||||
|
#[phase(link)]
|
||||||
|
extern crate regex;
|
||||||
|
|
||||||
|
#[phase(link, plugin)]
|
||||||
|
extern crate log;
|
||||||
|
|
||||||
|
#[phase(plugin)] extern crate regex_macros;
|
||||||
|
|
||||||
|
use std::collections::HashMap;
|
||||||
|
use std::io::File;
|
||||||
|
|
||||||
|
use syntax::parse;
|
||||||
|
use syntax::parse::lexer;
|
||||||
|
use rustc::driver::{session, config};
|
||||||
|
|
||||||
|
use syntax::ast;
|
||||||
|
use syntax::ast::Name;
|
||||||
|
use syntax::parse::token::*;
|
||||||
|
use syntax::parse::lexer::TokenAndSpan;
|
||||||
|
|
||||||
|
fn parse_token_list(file: &str) -> HashMap<String, Token> {
|
||||||
|
fn id() -> Token {
|
||||||
|
IDENT(ast::Ident { name: Name(0), ctxt: 0, }, false)
|
||||||
|
}
|
||||||
|
|
||||||
|
let mut res = HashMap::new();
|
||||||
|
|
||||||
|
res.insert("-1".to_string(), EOF);
|
||||||
|
|
||||||
|
for line in file.split('\n') {
|
||||||
|
let eq = match line.trim().rfind('=') {
|
||||||
|
Some(val) => val,
|
||||||
|
None => continue
|
||||||
|
};
|
||||||
|
|
||||||
|
let val = line.slice_to(eq);
|
||||||
|
let num = line.slice_from(eq + 1);
|
||||||
|
|
||||||
|
let tok = match val {
|
||||||
|
"SHR" => BINOP(SHR),
|
||||||
|
"DOLLAR" => DOLLAR,
|
||||||
|
"LT" => LT,
|
||||||
|
"STAR" => BINOP(STAR),
|
||||||
|
"FLOAT_SUFFIX" => id(),
|
||||||
|
"INT_SUFFIX" => id(),
|
||||||
|
"SHL" => BINOP(SHL),
|
||||||
|
"LBRACE" => LBRACE,
|
||||||
|
"RARROW" => RARROW,
|
||||||
|
"LIT_STR" => LIT_STR(Name(0)),
|
||||||
|
"DOTDOT" => DOTDOT,
|
||||||
|
"MOD_SEP" => MOD_SEP,
|
||||||
|
"DOTDOTDOT" => DOTDOTDOT,
|
||||||
|
"NOT" => NOT,
|
||||||
|
"AND" => BINOP(AND),
|
||||||
|
"LPAREN" => LPAREN,
|
||||||
|
"ANDAND" => ANDAND,
|
||||||
|
"AT" => AT,
|
||||||
|
"LBRACKET" => LBRACKET,
|
||||||
|
"LIT_STR_RAW" => LIT_STR_RAW(Name(0), 0),
|
||||||
|
"RPAREN" => RPAREN,
|
||||||
|
"SLASH" => BINOP(SLASH),
|
||||||
|
"COMMA" => COMMA,
|
||||||
|
"LIFETIME" => LIFETIME(ast::Ident { name: Name(0), ctxt: 0 }),
|
||||||
|
"CARET" => BINOP(CARET),
|
||||||
|
"TILDE" => TILDE,
|
||||||
|
"IDENT" => id(),
|
||||||
|
"PLUS" => BINOP(PLUS),
|
||||||
|
"LIT_CHAR" => LIT_CHAR(Name(0)),
|
||||||
|
"EQ" => EQ,
|
||||||
|
"RBRACKET" => RBRACKET,
|
||||||
|
"COMMENT" => COMMENT,
|
||||||
|
"DOC_COMMENT" => DOC_COMMENT(Name(0)),
|
||||||
|
"DOT" => DOT,
|
||||||
|
"EQEQ" => EQEQ,
|
||||||
|
"NE" => NE,
|
||||||
|
"GE" => GE,
|
||||||
|
"PERCENT" => BINOP(PERCENT),
|
||||||
|
"RBRACE" => RBRACE,
|
||||||
|
"BINOP" => BINOP(PLUS),
|
||||||
|
"POUND" => POUND,
|
||||||
|
"OROR" => OROR,
|
||||||
|
"LIT_INTEGER" => LIT_INTEGER(Name(0)),
|
||||||
|
"BINOPEQ" => BINOPEQ(PLUS),
|
||||||
|
"LIT_FLOAT" => LIT_FLOAT(Name(0)),
|
||||||
|
"WHITESPACE" => WS,
|
||||||
|
"UNDERSCORE" => UNDERSCORE,
|
||||||
|
"MINUS" => BINOP(MINUS),
|
||||||
|
"SEMI" => SEMI,
|
||||||
|
"COLON" => COLON,
|
||||||
|
"FAT_ARROW" => FAT_ARROW,
|
||||||
|
"OR" => BINOP(OR),
|
||||||
|
"GT" => GT,
|
||||||
|
"LE" => LE,
|
||||||
|
"LIT_BINARY" => LIT_BINARY(Name(0)),
|
||||||
|
"LIT_BINARY_RAW" => LIT_BINARY_RAW(Name(0), 0),
|
||||||
|
_ => continue
|
||||||
|
};
|
||||||
|
|
||||||
|
res.insert(num.to_string(), tok);
|
||||||
|
}
|
||||||
|
|
||||||
|
debug!("Token map: {}", res);
|
||||||
|
res
|
||||||
|
}
|
||||||
|
|
||||||
|
fn str_to_binop(mut s: &str) -> BinOp {
|
||||||
|
if s.ends_with("'") {
|
||||||
|
s = s.slice_to(s.len() - 1);
|
||||||
|
}
|
||||||
|
|
||||||
|
match s {
|
||||||
|
"+" => PLUS,
|
||||||
|
"-" => MINUS,
|
||||||
|
"*" => STAR,
|
||||||
|
"%" => PERCENT,
|
||||||
|
"^" => CARET,
|
||||||
|
"&" => AND,
|
||||||
|
"|" => OR,
|
||||||
|
"<<" => SHL,
|
||||||
|
">>" => SHR,
|
||||||
|
_ => fail!("Bad binop str {}", s)
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
fn parse_antlr_token(s: &str, tokens: &HashMap<String, Token>) -> TokenAndSpan {
|
||||||
|
let re = regex!(r"\[@(?P<seq>\d+),(?P<start>\d+):(?P<end>\d+)='(?P<content>.+?),<(?P<toknum>-?\d+)>,\d+:\d+]");
|
||||||
|
|
||||||
|
let m = re.captures(s).expect(format!("The regex didn't match {}", s).as_slice());
|
||||||
|
let start = m.name("start");
|
||||||
|
let end = m.name("end");
|
||||||
|
let toknum = m.name("toknum");
|
||||||
|
let content = m.name("content");
|
||||||
|
|
||||||
|
let proto_tok = tokens.find_equiv(&toknum).expect(format!("didn't find token {} in the map", toknum).as_slice());
|
||||||
|
let real_tok = match *proto_tok {
|
||||||
|
BINOP(PLUS) => BINOP(str_to_binop(content)),
|
||||||
|
BINOPEQ(PLUS) => BINOPEQ(str_to_binop(content.slice_to(content.len() - 2))),
|
||||||
|
ref t => t.clone()
|
||||||
|
};
|
||||||
|
|
||||||
|
let offset = if real_tok == EOF {
|
||||||
|
1
|
||||||
|
} else {
|
||||||
|
0
|
||||||
|
};
|
||||||
|
|
||||||
|
let sp = syntax::codemap::Span {
|
||||||
|
lo: syntax::codemap::BytePos(from_str::<u32>(start).unwrap() - offset),
|
||||||
|
hi: syntax::codemap::BytePos(from_str::<u32>(end).unwrap() + 1),
|
||||||
|
expn_info: None
|
||||||
|
};
|
||||||
|
|
||||||
|
TokenAndSpan {
|
||||||
|
tok: real_tok,
|
||||||
|
sp: sp
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
fn main() {
|
||||||
|
fn next(r: &mut lexer::StringReader) -> TokenAndSpan {
|
||||||
|
use syntax::parse::lexer::Reader;
|
||||||
|
r.next_token()
|
||||||
|
}
|
||||||
|
|
||||||
|
let token_map = parse_token_list(File::open(&Path::new("RustLexer.tokens")).unwrap().read_to_string().unwrap().as_slice());
|
||||||
|
let mut stdin = std::io::stdin();
|
||||||
|
let mut antlr_tokens = stdin.lines().map(|l| parse_antlr_token(l.unwrap().as_slice().trim(), &token_map));
|
||||||
|
|
||||||
|
let code = File::open(&Path::new(std::os::args().get(1).as_slice())).unwrap().read_to_string().unwrap();
|
||||||
|
let options = config::basic_options();
|
||||||
|
let session = session::build_session(options, None);
|
||||||
|
let filemap = parse::string_to_filemap(&session.parse_sess,
|
||||||
|
code,
|
||||||
|
String::from_str("<n/a>"));
|
||||||
|
let mut lexer = lexer::StringReader::new(session.diagnostic(), filemap);
|
||||||
|
|
||||||
|
for antlr_tok in antlr_tokens {
|
||||||
|
let rustc_tok = next(&mut lexer);
|
||||||
|
if rustc_tok.tok == EOF && antlr_tok.tok == EOF {
|
||||||
|
continue
|
||||||
|
}
|
||||||
|
|
||||||
|
assert!(rustc_tok.sp == antlr_tok.sp, "{} and {} have different spans", rustc_tok, antlr_tok);
|
||||||
|
|
||||||
|
macro_rules! matches (
|
||||||
|
( $($x:pat),+ ) => (
|
||||||
|
match rustc_tok.tok {
|
||||||
|
$($x => match antlr_tok.tok {
|
||||||
|
$x => (),
|
||||||
|
_ => fail!("{} is not {}", antlr_tok, rustc_tok)
|
||||||
|
},)*
|
||||||
|
ref c => assert!(c == antlr_tok.tok, "{} is not {}", rustc_tok, antlr_tok)
|
||||||
|
}
|
||||||
|
)
|
||||||
|
)
|
||||||
|
|
||||||
|
matches!(LIT_BYTE(..),
|
||||||
|
LIT_CHAR(..),
|
||||||
|
LIT_INTEGER(..),
|
||||||
|
LIT_FLOAT(..),
|
||||||
|
LIT_STR(..),
|
||||||
|
LIT_STR_RAW(..),
|
||||||
|
LIT_BINARY(..),
|
||||||
|
LIT_BINARY_RAW(..),
|
||||||
|
IDENT(..),
|
||||||
|
LIFETIME(..),
|
||||||
|
INTERPOLATED(..),
|
||||||
|
DOC_COMMENT(..),
|
||||||
|
SHEBANG(..)
|
||||||
|
);
|
||||||
|
}
|
||||||
|
}
|
Loading…
Reference in New Issue
Block a user