В одном из ИТ-пабликов мы увидели код на JavaScrip, в котором сначала число 7110 делится на 100 и умножается на сто. Результат деления сравнивается с числом 7110, и JavaScript говорит, что результат не равен. Как будто если разделить на 100 и тут же умножить на 100, ты получишь не то же самое число, с которого начинал. Во втором примере то же самое, но с числом 7120. Если его разделить на 100 и умножить на 100, получится ровно 7120. Получается, что одни и те же математические действия в двух случаях дали разные результаты. Как такое возможно? Если разобрать этот код, мы увидим, что ошибки нет, — но нужно понимать, как работает JavaScript.
Что будет, если переменную разделить и сразу умножить на одно и то же число
Карта навыков
Узнайте, какими навыками должен обладатьФронтенд-разработчик