Посчитайте на пальцах от одного до пяти. Легко. А теперь покажите пальцами «ничего». Вот в чём проблема — как показать отсутствие? Как записать пустоту? Тысячи лет люди не могли ответить на этот вопрос. А когда ответили — это изменило всю математику и вместе с ней весь мир.
Коротко: число ноль появилось не сразу — его изобретали независимо в нескольких цивилизациях. Сегодня без нуля невозможна ни компьютерная арифметика, ни физика, ни банковское дело.

Почему это неочевидно: три тысячи лет без нуля
Древние египтяне умели строить пирамиды. Греки создали геометрию Евклида. Римляне строили акведуки и дороги, которые служат до сих пор. Все они обходились без нуля — потому что в обычной жизни его не видно.
Представьте рынок: у вас есть три яблока, вы продаёте три яблока. У вас ноль яблок. Зачем записывать это число? Просто уходите с рынка. Ноль казался не числом, а отсутствием чисел.
Именно поэтому римские цифры не имеют нуля — I, V, X, L, C, D, M. В этой системе некому было прийти. А без нуля невозможно записать, например, 105 или 1000, не придумывая отдельный символ для каждой степени десяти.
Месопотамия: первый ноль как разделитель
Около 3000 лет назад в Вавилоне появилось нечто вроде нуля — но не как число, а как заполнитель позиции. Вавилоняне считали в системе с основанием 60 (мы до сих пор делим час на 60 минут именно из-за них). Когда нужно было записать, что в какой-то позиции ничего нет, они оставляли пробел, а позже стали рисовать специальный символ.
Но это ещё не число. Это как разделитель между цифрами — точка в нашем числе 10.05, которая не является числом сама по себе.
Майя: ноль как число и символ
Независимо от всех остальных цивилизаций, народы Мезоамерики — майя — разработали собственную числовую систему с нулём. Их ноль выглядел как стилизованная ракушка и использовался уже около 350 года нашей эры как полноценный элемент позиционной системы счисления.
Майя записывали большие числа и вели точные астрономические таблицы — и ноль им для этого был необходим. Но их математика развивалась изолированно и не повлияла на европейскую или азиатскую науку напрямую.
Индия: ноль стал числом
Настоящий прорыв произошёл в Индии. В VII веке математик и астроном Брахмагупта первым сформулировал правила арифметики с нулём — сложение, вычитание, умножение. В его трактате «Брахмасфута-сиддханта» (628 год н.э.) ноль — не пустота и не заполнитель, а равноправное число.
Брахмагупта записал: когда ноль прибавляется к числу или вычитается из него, число остаётся неизменным; число, умноженное на ноль, равно нулю. Это звучит очевидно сегодня — но тогда это было революцией.
Именно индийский ноль вместе с индийскими цифрами (которые мы ошибочно называем «арабскими») через арабских учёных дошёл до Европы и вытеснил римские цифры. Без этого перехода была бы невозможна ни алгебра, ни вся современная математика.
Почему нельзя делить на ноль
Это, пожалуй, самый известный запрет в математике. Но большинство людей воспринимают его как правило без объяснения. Давайте разберёмся.
Деление a на b — это вопрос: «Сколько раз b умещается в a?» Деление 12 на 3 = 4, потому что тройка умещается в двенадцати четыре раза.
Теперь спросим: «Сколько раз ноль умещается в 12?» Попробуем прибавлять нули: 0, 0, 0, 0… Мы никогда не получим 12 — нулей нужно бесконечно много. Ответа не существует.
А что если мы спросим: «Сколько раз ноль умещается в нуле?» 0 × 1 = 0, 0 × 2 = 0, 0 × 1000000 = 0. Любое число подходит. Ответ неопределён.
Ноль — чётное или нечётное число?
Чётное. Это удивляет многих, но проверить легко: чётное число — то, которое делится на 2 без остатка. 0 ÷ 2 = 0, остатка нет. Значит, ноль чётный.
Или по-другому: последовательность чётных чисел выглядит так: …, −4, −2, 0, 2, 4, … Ноль стоит ровно в середине, симметрично между отрицательными и положительными чётными. Всё логично.
Ноль — натуральное число?
Вот тут математики до сих пор не пришли к единому мнению. В России (и по стандартам ИСО) натуральный ряд начинается с единицы: 1, 2, 3, … Ноль не натуральное. В некоторых европейских странах и в информатике принято считать ноль натуральным числом — это удобнее для программирования (индексы массивов начинаются с нуля). Обе версии формально корректны — это просто вопрос договорённости.
Попробуй сам: задачи и парадоксы с нулём
Задача 1. Вычислите: 5 × 0 + 3 × 0 = ?
Ответ
0 + 0 = 0. Любое число, умноженное на ноль, даёт ноль. Потом складываем два нуля — получаем ноль.
Задача 2. Ноль в нулевой степени: 0⁰ = ?
Ответ
Это один из знаменитых «неопределённых» случаев в математике. В большинстве контекстов принято считать 0⁰ = 1 — это соглашение удобно в комбинаторике и при записи формулы бинома Ньютона. Но формально это спорно: с одной стороны 0ⁿ = 0 для любого n > 0, с другой — n⁰ = 1 для любого n ≠ 0.
Задача 3. Правда ли, что 0! = 1 (ноль-факториал равен единице)?
Ответ
Да, правда. Для удобства формул (особенно комбинаторных) договорились считать 0! = 1. Это математическое соглашение, которое делает формулы красивее. Например, число сочетаний C(n, n) = n! / (n! × 0!) = 1 — что логично: выбрать все n элементов из n можно ровно одним способом.
Ноль в цифровом мире
Все компьютеры мира работают на двоичной системе счисления: нули и единицы. Ноль — это выключено, единица — включено. Каждый байт данных — это восемь нулей и единиц в определённом порядке. Без нуля буквально нет компьютеров, нет интернета, нет смартфонов.
Также без нуля невозможна десятичная позиционная система. Число 100 отличается от 10 именно благодаря нулю: он показывает, что позиция единиц и десятков пуста. Без нуля нам бы пришлось придумывать отдельные символы для сотен, тысяч, миллионов — как это было у римлян.
История: Брахмагупта и Аль-Хорезми
Брахмагупта (598–668 н.э.) — индийский учёный, астроном и математик из Раджастана. Его трактат «Брахмасфута-сиддханта» — первый известный текст, где ноль рассматривается как число в арифметических операциях.
Мухаммад ибн Муса аль-Хорезми (780–850 н.э.) — математик из Хорезма (современный Узбекистан). Его книга «Об индийском счёте» в XII веке была переведена на латынь как «Algoritmi de numero Indorum» — слово «algoritmi» (латинизация его имени) стало словом «алгоритм». Термин «алгебра» тоже происходит от названия его другой работы.
Частые вопросы (FAQ)
Является ли ноль положительным или отрицательным числом?
Ни тем ни другим. Ноль — нейтральный элемент числовой прямой. Положительные числа больше нуля, отрицательные — меньше.
Когда появился ноль в Европе?
В XII веке благодаря переводам арабских трактатов на латынь. Леонардо Пизанский (Фибоначчи) в 1202 году в «Liber Abaci» познакомил Европу с индо-арабской системой счисления.
Что будет, если возвести ноль в степень?
Для любого положительного показателя: 0ⁿ = 0. Ноль в любой положительной степени — это ноль. Исключение — 0⁰, это неопределённость.
Почему в телефонных номерах ноль — первая цифра?
В большинстве стран «0» в начале номера — это код выхода на межгород или международную линию. Это не математический ноль, а символ с функцией.
Существует ли ноль в природе?
Абсолютный нуль температуры (−273.15°C) — теоретический минимум, которого никогда полностью не достичь. Вакуум тоже не «абсолютный ноль»: квантовая физика говорит, что даже в вакууме постоянно рождаются и исчезают виртуальные частицы.
Что дальше
История нуля тесно связана с историей систем счисления — стоит изучить, как устроена двоичная система и почему компьютеры её используют. Интересно разобраться с понятием бесконечности в математике — это тоже «экстремальный» случай. А если хочется углубиться в историю математики — биографии Брахмагупты, аль-Хорезми и Фибоначчи расскажут о трёх разных мирах, соединившихся в одной идее.