Из того, что я прочитал, значение типа данных double имеет приблизительную точность в 15 знаков после запятой. Однако, когда я использую число, повторяющее десятичное представление, например 1.0/7.0, я обнаруживаю, что переменная содержит значение 0.14285714285714285 - это 17 мест (через отладчик).
Я хотел бы знать, почему он представлен как 17 мест внутри, и почему точность 15 всегда записывается в ~ 15?