Я знаю, что 10 лет назад типичная точность часов равнялась системному тику, который находился в диапазоне 10-30 мс. За последние годы точность была увеличена в несколько этапов. В настоящее время существуют способы измерения временных интервалов в реальных наносекундах. Однако обычные фреймворки по-прежнему возвращают время с точностью около 15 мс.
Мой вопрос заключается в том, какие шаги повысили точность, как можно измерить в наносекундах, а почему мы все еще часто получаем точность менее чем на микросекунду (например, в .NET).
(Отказ от ответственности: мне кажется странным, что этого не спрашивали раньше, поэтому, я думаю, я пропустил этот вопрос, когда искал. Пожалуйста, закройте и укажите мне вопрос в этом случае, спасибо. Я считаю, что это принадлежит SO и а не на каком-либо другом сайте SOFU. Я понимаю разницу между точностью и точностью.)