Есть ли причина, по которой С# System.Decimal запоминает количество завершающих нулей, с которыми оно было введено? См. Следующий пример:
public void DoSomething()
{
decimal dec1 = 0.5M;
decimal dec2 = 0.50M;
Console.WriteLine(dec1); //Output: 0.5
Console.WriteLine(dec2); //Output: 0.50
Console.WriteLine(dec1 == dec2); //Output: True
}
Десятичные числа классифицируются как равные, но dec2 помнит, что он был введен с дополнительным нулем. В чем причина/цель для этого?