Тем более что в математике считается, что поле действительных чисел является аддитивной группой (от лат. additio – прибавляю) – относящийся к сложению, а ноль – специфически нейтральный элемент этой группы. Поэтому помещая нейтральный ноль (пустое место) в эту группу, мы превращаем её во что-то группой не являющееся. Произвольно обращаться с нолем может только математика, считая его обычной цифрой.
Вот несколько абсурдов, взятых наугад….
Из правил умножения и деления известно, что при умножении число на ноль получается ноль, а при делении – бесконечность. Но такая формализация до добра не доводит……Действительно, пусть у нас есть два произвольных разных числа, a и b, и мы умеем делить на ноль. Далее – всё по элементарной алгебре:
0 * a = 0
0 * b = 0
0 * a = 0 * b
делим на 0, и формально, получается, по правилам алгебры
a = b
Таким же точно образом «доказывается», что 2+2=n. (где n=любое число) 0 = 0.
Всё также и в том же духе…….
(2+2) *0 = n*0
делим на 0, и получается
2+2 = n
Таков математический абсурд умножения на ноль.
Но при делении на ноль дело обстоит и того хуже. Все реальные попытки такового приводили к фантастическим парадоксам.
Для тех, кому на ноль делить все-таки очень уж хочется, в нестандартном анализе математики придумали гипердействительные числа так, например, существует число не равное нулю, но меньшее всех остальных по модулю.
Школьные знания здесь явно не помогают……..
В ход идут мощные компьютеры. Процессор x86 при попытке выполнить операцию целочисленного деления на ноль формирует особый случай, вектор которого также находится по адресу 0.
В результате процессор славное действие деления на ноль до конца не доводит, а перескакивает в другое место, обычно сообщая о внезапном отказе.
Ведь процесс деления целых чисел осуществляется компьютером, как вычитание со сдвигом и обнулением остатка от делимого. При этом нулевой делитель означает бесконечное число циклов с одинаковым ненулевым результатом. В результате делимое списывается в остаток и возвращается нуль.
Бесконечности не получается……..
Здесь компьютер возвращает нас к древним основам арифметики. Вспомним, что человечество придумало арифметические действия умножения и деления, специально изобретя таблицу умножения, и только для того, чтобы быстрее прибавить или отнять части физического сомножества объектов, без занудного перекладывания пар их из кучи в кучу. То есть в основе этих действий лежат сложение и вычитание, что, кстати, нам подтверждает компьютер, не имеющий понятия об ухищрениях произведения и частного. Он все себе быстренько складывает или вычитает, по принципу есть объект, нет объекта.