use std::collections::{BTreeMap, BTreeSet, HashMap, HashSet}; use std::net; use std::path::PathBuf; extern crate serde; use self::serde::Deserialize; extern crate fnv; use self::fnv::FnvHasher; extern crate serde_test; use self::serde_test::{ Error, Token, assert_de_tokens, assert_de_tokens_error, }; ////////////////////////////////////////////////////////////////////////// #[derive(Copy, Clone, PartialEq, Debug, Deserialize)] struct UnitStruct; #[derive(PartialEq, Debug, Deserialize)] struct TupleStruct(i32, i32, i32); #[derive(PartialEq, Debug, Deserialize)] struct Struct { a: i32, b: i32, #[serde(skip_deserializing)] c: i32, } #[derive(PartialEq, Debug, Deserialize)] enum Enum { Unit, Simple(i32), Seq(i32, i32, i32), Map { a: i32, b: i32, c: i32 } } ////////////////////////////////////////////////////////////////////////// macro_rules! declare_test { ($name:ident { $($value:expr => $tokens:expr,)+ }) => { #[test] fn $name() { $( // Test ser/de roundtripping assert_de_tokens(&$value, $tokens); // Test that the tokens are ignorable assert_de_tokens_ignore($tokens); )+ } } } macro_rules! declare_tests { ($($name:ident { $($value:expr => $tokens:expr,)+ })+) => { $( declare_test!($name { $($value => $tokens,)+ }); )+ } } macro_rules! declare_error_tests { ($($name:ident<$target:ident> { $tokens:expr, $expected:expr, })+) => { $( #[test] fn $name() { assert_de_tokens_error::<$target>($tokens, $expected); } )+ } } fn assert_de_tokens_ignore(ignorable_tokens: &[Token<'static>]) { #[derive(PartialEq, Debug, Deserialize)] struct IgnoreBase { a: i32, } let expected = IgnoreBase{a: 1}; // Embed the tokens to be ignored in the normal token // stream for an IgnoreBase type let concated_tokens : Vec> = vec![ Token::MapStart(Some(2)), Token::MapSep, Token::Str("a"), Token::I32(1), Token::MapSep, Token::Str("ignored") ] .into_iter() .chain(ignorable_tokens.to_vec().into_iter()) .chain(vec![ Token::MapEnd, ].into_iter()) .collect(); let mut de = serde_test::Deserializer::new(concated_tokens.into_iter()); let v: Result = Deserialize::deserialize(&mut de); // We run this test on every token stream for convenience, but // some token streams don't make sense embedded as a map value, // so we ignore those. SyntaxError is the real sign of trouble. if let Err(Error::UnexpectedToken(_)) = v { return; } assert_eq!(v.as_ref(), Ok(&expected)); assert_eq!(de.next_token(), None); } ////////////////////////////////////////////////////////////////////////// declare_tests! { test_bool { true => &[Token::Bool(true)], false => &[Token::Bool(false)], } test_isize { 0isize => &[Token::Isize(0)], 0isize => &[Token::I8(0)], 0isize => &[Token::I16(0)], 0isize => &[Token::I32(0)], 0isize => &[Token::I64(0)], 0isize => &[Token::Usize(0)], 0isize => &[Token::U8(0)], 0isize => &[Token::U16(0)], 0isize => &[Token::U32(0)], 0isize => &[Token::U64(0)], 0isize => &[Token::F32(0.)], 0isize => &[Token::F64(0.)], } test_ints { 0isize => &[Token::Isize(0)], 0i8 => &[Token::I8(0)], 0i16 => &[Token::I16(0)], 0i32 => &[Token::I32(0)], 0i64 => &[Token::I64(0)], } test_uints { 0usize => &[Token::Usize(0)], 0u8 => &[Token::U8(0)], 0u16 => &[Token::U16(0)], 0u32 => &[Token::U32(0)], 0u64 => &[Token::U64(0)], } test_floats { 0f32 => &[Token::F32(0.)], 0f64 => &[Token::F64(0.)], } test_char { 'a' => &[Token::Char('a')], 'a' => &[Token::Str("a")], 'a' => &[Token::String("a".to_owned())], } test_string { "abc".to_owned() => &[Token::Str("abc")], "abc".to_owned() => &[Token::String("abc".to_owned())], "a".to_owned() => &[Token::Char('a')], } test_option { None:: => &[Token::Unit], None:: => &[Token::Option(false)], Some(1) => &[Token::I32(1)], Some(1) => &[ Token::Option(true), Token::I32(1), ], } test_result { Ok::(0) => &[ Token::EnumStart("Result"), Token::Str("Ok"), Token::I32(0), ], Err::(1) => &[ Token::EnumStart("Result"), Token::Str("Err"), Token::I32(1), ], } test_unit { () => &[Token::Unit], () => &[ Token::SeqStart(Some(0)), Token::SeqEnd, ], () => &[ Token::SeqStart(None), Token::SeqEnd, ], () => &[ Token::TupleStructStart("Anything", 0), Token::SeqEnd, ], } test_unit_struct { UnitStruct => &[Token::Unit], UnitStruct => &[ Token::UnitStruct("UnitStruct"), ], UnitStruct => &[ Token::SeqStart(Some(0)), Token::SeqEnd, ], UnitStruct => &[ Token::SeqStart(None), Token::SeqEnd, ], } test_tuple_struct { TupleStruct(1, 2, 3) => &[ Token::SeqStart(Some(3)), Token::SeqSep, Token::I32(1), Token::SeqSep, Token::I32(2), Token::SeqSep, Token::I32(3), Token::SeqEnd, ], TupleStruct(1, 2, 3) => &[ Token::SeqStart(None), Token::SeqSep, Token::I32(1), Token::SeqSep, Token::I32(2), Token::SeqSep, Token::I32(3), Token::SeqEnd, ], TupleStruct(1, 2, 3) => &[ Token::TupleStructStart("TupleStruct", 3), Token::TupleStructSep, Token::I32(1), Token::TupleStructSep, Token::I32(2), Token::TupleStructSep, Token::I32(3), Token::TupleStructEnd, ], TupleStruct(1, 2, 3) => &[ Token::TupleStructStart("TupleStruct", 3), Token::TupleStructSep, Token::I32(1), Token::TupleStructSep, Token::I32(2), Token::TupleStructSep, Token::I32(3), Token::TupleStructEnd, ], } test_btreeset { BTreeSet::::new() => &[ Token::Unit, ], BTreeSet::::new() => &[ Token::SeqStart(Some(0)), Token::SeqEnd, ], btreeset![btreeset![], btreeset![1], btreeset![2, 3]] => &[ Token::SeqStart(Some(3)), Token::SeqSep, Token::SeqStart(Some(0)), Token::SeqEnd, Token::SeqSep, Token::SeqStart(Some(1)), Token::SeqSep, Token::I32(1), Token::SeqEnd, Token::SeqSep, Token::SeqStart(Some(2)), Token::SeqSep, Token::I32(2), Token::SeqSep, Token::I32(3), Token::SeqEnd, Token::SeqEnd, ], BTreeSet::::new() => &[ Token::UnitStruct("Anything"), ], BTreeSet::::new() => &[ Token::TupleStructStart("Anything", 0), Token::SeqEnd, ], } test_hashset { HashSet::::new() => &[ Token::Unit, ], HashSet::::new() => &[ Token::SeqStart(Some(0)), Token::SeqEnd, ], hashset![1, 2, 3] => &[ Token::SeqStart(Some(3)), Token::SeqSep, Token::I32(1), Token::SeqSep, Token::I32(2), Token::SeqSep, Token::I32(3), Token::SeqEnd, ], HashSet::::new() => &[ Token::UnitStruct("Anything"), ], HashSet::::new() => &[ Token::TupleStructStart("Anything", 0), Token::SeqEnd, ], hashset![FnvHasher @ 1, 2, 3] => &[ Token::SeqStart(Some(3)), Token::SeqSep, Token::I32(1), Token::SeqSep, Token::I32(2), Token::SeqSep, Token::I32(3), Token::SeqEnd, ], } test_vec { Vec::::new() => &[ Token::Unit, ], Vec::::new() => &[ Token::SeqStart(Some(0)), Token::SeqEnd, ], vec![vec![], vec![1], vec![2, 3]] => &[ Token::SeqStart(Some(3)), Token::SeqSep, Token::SeqStart(Some(0)), Token::SeqEnd, Token::SeqSep, Token::SeqStart(Some(1)), Token::SeqSep, Token::I32(1), Token::SeqEnd, Token::SeqSep, Token::SeqStart(Some(2)), Token::SeqSep, Token::I32(2), Token::SeqSep, Token::I32(3), Token::SeqEnd, Token::SeqEnd, ], Vec::::new() => &[ Token::UnitStruct("Anything"), ], Vec::::new() => &[ Token::TupleStructStart("Anything", 0), Token::SeqEnd, ], } test_array { [0; 0] => &[ Token::Unit, ], [0; 0] => &[ Token::SeqStart(Some(0)), Token::SeqEnd, ], [0; 0] => &[ Token::SeqArrayStart(0), Token::SeqEnd, ], ([0; 0], [1], [2, 3]) => &[ Token::SeqStart(Some(3)), Token::SeqSep, Token::SeqStart(Some(0)), Token::SeqEnd, Token::SeqSep, Token::SeqStart(Some(1)), Token::SeqSep, Token::I32(1), Token::SeqEnd, Token::SeqSep, Token::SeqStart(Some(2)), Token::SeqSep, Token::I32(2), Token::SeqSep, Token::I32(3), Token::SeqEnd, Token::SeqEnd, ], ([0; 0], [1], [2, 3]) => &[ Token::SeqArrayStart(3), Token::SeqSep, Token::SeqArrayStart(0), Token::SeqEnd, Token::SeqSep, Token::SeqArrayStart(1), Token::SeqSep, Token::I32(1), Token::SeqEnd, Token::SeqSep, Token::SeqArrayStart(2), Token::SeqSep, Token::I32(2), Token::SeqSep, Token::I32(3), Token::SeqEnd, Token::SeqEnd, ], [0; 0] => &[ Token::UnitStruct("Anything"), ], [0; 0] => &[ Token::TupleStructStart("Anything", 0), Token::SeqEnd, ], } test_tuple { (1,) => &[ Token::SeqStart(Some(1)), Token::SeqSep, Token::I32(1), Token::SeqEnd, ], (1, 2, 3) => &[ Token::SeqStart(Some(3)), Token::SeqSep, Token::I32(1), Token::SeqSep, Token::I32(2), Token::SeqSep, Token::I32(3), Token::SeqEnd, ], (1,) => &[ Token::TupleStart(1), Token::TupleSep, Token::I32(1), Token::TupleEnd, ], (1, 2, 3) => &[ Token::TupleStart(3), Token::TupleSep, Token::I32(1), Token::TupleSep, Token::I32(2), Token::TupleSep, Token::I32(3), Token::TupleEnd, ], } test_btreemap { BTreeMap::::new() => &[ Token::Unit, ], BTreeMap::::new() => &[ Token::MapStart(Some(0)), Token::MapEnd, ], btreemap![1 => 2] => &[ Token::MapStart(Some(1)), Token::MapSep, Token::I32(1), Token::I32(2), Token::MapEnd, ], btreemap![1 => 2, 3 => 4] => &[ Token::MapStart(Some(2)), Token::MapSep, Token::I32(1), Token::I32(2), Token::MapSep, Token::I32(3), Token::I32(4), Token::MapEnd, ], btreemap![1 => btreemap![], 2 => btreemap![3 => 4, 5 => 6]] => &[ Token::MapStart(Some(2)), Token::MapSep, Token::I32(1), Token::MapStart(Some(0)), Token::MapEnd, Token::MapSep, Token::I32(2), Token::MapStart(Some(2)), Token::MapSep, Token::I32(3), Token::I32(4), Token::MapSep, Token::I32(5), Token::I32(6), Token::MapEnd, Token::MapEnd, ], BTreeMap::::new() => &[ Token::UnitStruct("Anything"), ], BTreeMap::::new() => &[ Token::StructStart("Anything", 0), Token::MapEnd, ], } test_hashmap { HashMap::::new() => &[ Token::Unit, ], HashMap::::new() => &[ Token::MapStart(Some(0)), Token::MapEnd, ], hashmap![1 => 2] => &[ Token::MapStart(Some(1)), Token::MapSep, Token::I32(1), Token::I32(2), Token::MapEnd, ], hashmap![1 => 2, 3 => 4] => &[ Token::MapStart(Some(2)), Token::MapSep, Token::I32(1), Token::I32(2), Token::MapSep, Token::I32(3), Token::I32(4), Token::MapEnd, ], hashmap![1 => hashmap![], 2 => hashmap![3 => 4, 5 => 6]] => &[ Token::MapStart(Some(2)), Token::MapSep, Token::I32(1), Token::MapStart(Some(0)), Token::MapEnd, Token::MapSep, Token::I32(2), Token::MapStart(Some(2)), Token::MapSep, Token::I32(3), Token::I32(4), Token::MapSep, Token::I32(5), Token::I32(6), Token::MapEnd, Token::MapEnd, ], HashMap::::new() => &[ Token::UnitStruct("Anything"), ], HashMap::::new() => &[ Token::StructStart("Anything", 0), Token::MapEnd, ], hashmap![FnvHasher @ 1 => 2, 3 => 4] => &[ Token::MapStart(Some(2)), Token::MapSep, Token::I32(1), Token::I32(2), Token::MapSep, Token::I32(3), Token::I32(4), Token::MapEnd, ], } test_struct { Struct { a: 1, b: 2, c: 0 } => &[ Token::MapStart(Some(3)), Token::MapSep, Token::Str("a"), Token::I32(1), Token::MapSep, Token::Str("b"), Token::I32(2), Token::MapEnd, ], Struct { a: 1, b: 2, c: 0 } => &[ Token::StructStart("Struct", 3), Token::StructSep, Token::Str("a"), Token::I32(1), Token::StructSep, Token::Str("b"), Token::I32(2), Token::StructEnd, ], Struct { a: 1, b: 2, c: 0 } => &[ Token::SeqStart(Some(3)), Token::SeqSep, Token::I32(1), Token::SeqSep, Token::I32(2), Token::SeqEnd, ], } test_struct_with_skip { Struct { a: 1, b: 2, c: 0 } => &[ Token::MapStart(Some(3)), Token::MapSep, Token::Str("a"), Token::I32(1), Token::MapSep, Token::Str("b"), Token::I32(2), Token::MapSep, Token::Str("c"), Token::I32(3), Token::MapSep, Token::Str("d"), Token::I32(4), Token::MapEnd, ], Struct { a: 1, b: 2, c: 0 } => &[ Token::StructStart("Struct", 3), Token::StructSep, Token::Str("a"), Token::I32(1), Token::StructSep, Token::Str("b"), Token::I32(2), Token::StructSep, Token::Str("c"), Token::I32(3), Token::StructSep, Token::Str("d"), Token::I32(4), Token::StructEnd, ], } test_enum_unit { Enum::Unit => &[ Token::EnumUnit("Enum", "Unit"), ], } test_enum_simple { Enum::Simple(1) => &[ Token::EnumNewType("Enum", "Simple"), Token::I32(1), ], } test_enum_seq { Enum::Seq(1, 2, 3) => &[ Token::EnumSeqStart("Enum", "Seq", 3), Token::EnumSeqSep, Token::I32(1), Token::EnumSeqSep, Token::I32(2), Token::EnumSeqSep, Token::I32(3), Token::EnumSeqEnd, ], } test_enum_map { Enum::Map { a: 1, b: 2, c: 3 } => &[ Token::EnumMapStart("Enum", "Map", 3), Token::EnumMapSep, Token::Str("a"), Token::I32(1), Token::EnumMapSep, Token::Str("b"), Token::I32(2), Token::EnumMapSep, Token::Str("c"), Token::I32(3), Token::EnumMapEnd, ], } test_enum_unit_usize { Enum::Unit => &[ Token::EnumStart("Enum"), Token::Usize(0), Token::Unit, ], } test_enum_unit_bytes { Enum::Unit => &[ Token::EnumStart("Enum"), Token::Bytes(b"Unit"), Token::Unit, ], } test_box { Box::new(0i32) => &[Token::I32(0)], } test_boxed_slice { Box::new([0, 1, 2]) => &[ Token::SeqStart(Some(3)), Token::SeqSep, Token::I32(0), Token::SeqSep, Token::I32(1), Token::SeqSep, Token::I32(2), Token::SeqEnd, ], } test_net_ipv4addr { "1.2.3.4".parse::().unwrap() => &[Token::Str("1.2.3.4")], } test_net_ipv6addr { "::1".parse::().unwrap() => &[Token::Str("::1")], } test_net_socketaddr { "1.2.3.4:1234".parse::().unwrap() => &[Token::Str("1.2.3.4:1234")], "1.2.3.4:1234".parse::().unwrap() => &[Token::Str("1.2.3.4:1234")], "[::1]:1234".parse::().unwrap() => &[Token::Str("[::1]:1234")], } test_path_buf { PathBuf::from("/usr/local/lib") => &[ Token::String("/usr/local/lib".to_owned()), ], } } #[cfg(feature = "nightly")] #[test] fn test_net_ipaddr() { assert_de_tokens( "1.2.3.4".parse::().unwrap(), &[Token::Str("1.2.3.4")], ); } declare_error_tests! { test_unknown_variant { &[ Token::EnumUnit("Enum", "Foo"), ], Error::UnknownVariant("Foo".to_owned()), } test_struct_seq_too_long { &[ Token::SeqStart(Some(4)), Token::SeqSep, Token::I32(1), Token::SeqSep, Token::I32(2), Token::SeqSep, Token::I32(3), ], Error::UnexpectedToken(Token::SeqSep), } test_duplicate_field_struct { &[ Token::MapStart(Some(3)), Token::MapSep, Token::Str("a"), Token::I32(1), Token::MapSep, Token::Str("a"), ], Error::DuplicateField("a"), } test_duplicate_field_enum { &[ Token::EnumMapStart("Enum", "Map", 3), Token::EnumMapSep, Token::Str("a"), Token::I32(1), Token::EnumMapSep, Token::Str("a"), ], Error::DuplicateField("a"), } }