Por qué el 1 ya no es un número primo (sí, en una época lo fue)

Durante siglos, el primer número natural se incluyó en listas exclusivas de matemáticos. Esa elección, común hasta el siglo XIX, cambió por razones vinculadas a la estructura lógica de la aritmética

Guardar
El teorema fundamental de la
El teorema fundamental de la aritmética demostró que incluir al 1 como número primo genera inconsistencias en la descomposición única en factores primos (Imagen Ilustrativa Infobae)

¿Qué significa que un número sea primo? En matemática, un número primo es aquel que solo puede dividirse de manera exacta por 1 y él mismo. Ejemplos clásicos son 2, 3, 5 o 7: todos ellos cumplen con esa propiedad.

A partir de esta idea surge una pregunta que parece simple, pero que tiene una historia más compleja de lo que sugiere: ¿por qué el 1 no es un número primo? La confusión es inevitable, ya que cumple con la premisa anterior. Sucede que esta definición que hoy se enseña en la escuela no siempre fue la aceptada.

Durante siglos, el número 1 fue considerado un número primo. Lejos de ser un error, esa clasificación reflejaba una forma distinta de entender los números.

Un ejemplo claro aparece en la famosa correspondencia entre Christian Goldbach y Leonhard Euler. En una carta de 1742, Goldbach formuló la idea que hoy se conoce como la conjetura de Goldbach: que todo número par puede escribirse como suma de números primos.

Fragmento de la carta de
Fragmento de la carta de Goldbach a Euler en donde toma al 1 como número primo a la hora de plantear ejemplos de su conjetura

En esa formulación original, el 1 era considerado primo y aparecía naturalmente en los ejemplos: el 4 podía escribirse como 1 + 3, y el 6 como 5 + 1.

Problemas conceptuales de considerar primo al número 1

Ese detalle, que hoy puede parecer menor, muestra que la presencia del 1 no generaba conflictos en ese contexto, pero con el tiempo se volvió problemática a medida que la matemática buscó definiciones más precisas y consistentes.

El cambio llegó cuando la matemática empezó a exigir mayor precisión conceptual. Incluir al 1 no era un detalle menor: generaba problemas en uno de los pilares de la teoría de números, el Teorema Fundamental de la Aritmética, que establece que todo número entero mayor que 1 puede descomponerse de manera única como producto de primos.

Un ejemplo sencillo lo ilustra.

12 = 2 × 2 × 3

Es por esta razón que, en cierto sentido, se los considera los “átomos” con los que se construyen todos los demás números.

Esa descomposición es única. Pero si el 1 fuera primo, podrían agregarse tantos unos como se quiera:

12 = 1 × 2 × 2 × 3

12 = 1 × 1 × 2 × 2 × 3

Y así indefinidamente. La unicidad desaparece, y con ella, la solidez del teorema.

La definición moderna: solo dos divisores positivos

Este tipo de tensiones llevó a redefinir el concepto de número primo. Para evitar ambigüedades, los matemáticos fijaron una condición clave: un número primo debe tener exactamente dos divisores positivos distintos.

La precisión no es menor: es lo que deja afuera al 1, cuya inclusión generaba inconsistencias.

Bajo este criterio, el 1, que tiene un solo divisor, queda naturalmente excluido del conjunto de los números primos.