remove test cruft

This commit is contained in:
Scott Richmond 2024-11-14 21:31:26 -05:00
parent 10bc2e9b0c
commit f1d19b73db

View File

@ -76,98 +76,3 @@ pub fn main() {
println!("{}", result); println!("{}", result);
} }
// #[cfg(test)]
// mod tests {
// use crate::lexer;
// use crate::Token;
// use chumsky::prelude::*;
// #[test]
// fn it_lexes_positive_ints() {
// let (mytoken, _) = lexer().parse("42").unwrap()[0].clone();
// assert_eq!(mytoken, Token::Number(42.0))
// }
// #[test]
// fn it_lexes_negative_ints() {
// let (mytoken, _) = lexer().parse("-42").unwrap()[0].clone();
// assert_eq!(mytoken, Token::Number(-42.0))
// }
// #[test]
// fn it_lexes_positive_floats() {
// let (mytoken, _) = lexer().parse("42.032").unwrap()[0].clone();
// assert_eq!(mytoken, Token::Number(42.032))
// }
// #[test]
// fn it_lexes_positive_decimals() {
// let (mytoken, _) = lexer().parse("0.123").unwrap()[0].clone();
// assert_eq!(mytoken, Token::Number(0.123))
// }
// #[test]
// fn it_lexes_negative_floats() {
// let mytoken = lexer().parse("-42.123").unwrap()[0].clone().0;
// assert_eq!(mytoken, Token::Number(-42.123))
// }
// #[test]
// fn it_lexes_negative_decimals() {
// let mytoken = lexer().parse("-0.123").unwrap()[0].clone().0;
// assert_eq!(mytoken, Token::Number(-0.123))
// }
// #[test]
// fn it_lexes_bools() {
// let tt = lexer().parse("true").unwrap()[0].clone().0;
// assert_eq!(tt, Token::Boolean(true));
// let ff = lexer().parse("false").unwrap()[0].clone().0;
// assert_eq!(ff, Token::Boolean(false))
// }
// #[test]
// fn it_lexes_words() {
// let mytoken = lexer().parse("foo").unwrap()[0].clone().0;
// assert_eq!(mytoken, Token::Word("foo"))
// }
// #[test]
// fn it_lexes_keywords() {
// let kw = lexer().parse(":foo").unwrap()[0].clone().0;
// assert_eq!(kw, Token::Keyword("foo"))
// }
// #[test]
// fn it_lexes_strings() {
// let s = lexer().parse("\"foo bar baz\"").unwrap()[0].clone().0;
// assert_eq!(s, Token::String("foo bar baz"))
// }
// #[test]
// fn it_ignores_comments() {
// let e = lexer().parse("foo &bar\nbaz").unwrap();
// assert_eq!(e[0].0, Token::Word("foo"));
// assert_eq!(e[1].0, Token::Punctuation("\n"));
// assert_eq!(e[2].0, Token::Word("baz"))
// }
// #[test]
// fn it_lexes_multiple_tokens() {
// let toks = lexer().parse("foo;bar\nbaz").unwrap();
// assert_eq!(toks[0].0, Token::Word("foo"));
// assert_eq!(toks[2].0, Token::Word("bar"));
// assert_eq!(toks[4].0, Token::Word("baz"))
// }
// #[test]
// fn it_lexes_collections() {
// let toks = lexer().parse("(1, 2)").unwrap();
// assert_eq!(toks[0].0, Token::Punctuation("("));
// assert_eq!(toks[1].0, Token::Number(1.0));
// assert_eq!(toks[2].0, Token::Punctuation(","));
// assert_eq!(toks[3].0, Token::Number(2.0));
// assert_eq!(toks[4].0, Token::Punctuation(")"))
// }
// }