Negacionistas de la IA
Hace algún tiempo que vengo escuchando esto de los negacionistas de la IA, término promovido obviamente por los sospechosos
habituales de siempre, con el apoyo de medios de comunicación afines, televisiones y demás palmeros a sueldo.
Probablemente este hecho ocurre debido a que la técnica de la zanahoria no esté dando los frutos esperados y se está pasando
a la del palo o una combinación de ambas.
Pero antes de profundizar en el tema veamos la clasificación de las IAs actuales, existentes y teóricas:
- ANI (Artificial Narrow Intelligence): La única existente hoy. Es capaz de realizar tareas específicas y limitadas,
como por ejemplo reconocimiento de imágen, asistentes virtuales, traducción de idiomas o jugar un juego.
Está diseñada para un área o tarea concreta y no posee habilidades de aprendizaje fuera de su dominio específico. - AGI (Artificial General Intelligence): El concepto que nos están intentando vender de todas las maneras posibles,
y digo concepto porque por mucho que digan la AGI es una etapa teórica ya que su definición presenta una inteligencia
artificial que tiene la capacidad de entender, aprender y aplicar conocimientos de forma similar a la inteligencia humana.
A diferencia de la ANI, que está diseñada para tareas específicas, la AGI es capaz de realizar cualquier tarea intelectual que un ser humano puede llevar a cabo.
Es el modelo de IA capaz de aprender por si misma, que puede aprender y adaptarse a nuevas tareas sin necesidad de ser específicamente programada para ellas. - ASI (Artificial Superintelligence): Una etapa hipotética. En esta instancia tratamos con una IA que supera
ampliamente las capacidades humanas en todos los aspectos, incluyendo creatividad, resolución de problemas, toma de
decisiones y comprensión emocional.
Una IA dotada de habilidades cognitivas y analíticas mucho más avanzadas que las humanas, con las habilidades de resolver problemas complejos que hoy son imposibles para nosotros o de mejorar y perfeccionarse a sí misma de manera rápida, llevando a un crecimiento exponencial su inteligencia. - Singularidad: Este es el punto donde la tasa de crecimiento tecnológico se vuelve incontrolable e impredecible
para los humanos.
En esta fase la superinteligencia sería capaz de diseñar versiones aún más avanzadas de sí misma sin intervención humana. La singularidad implicaría cambios drásticos en áreas como economía, trabajo, ética, y la forma en que los humanos interactúan y viven.
Ahora vamos a analizar el impacto económico y en los mercados derivado de las estratosféricas inversiones en IA
valoradas en estos momentos en cientos de miles de millones o incluso billones de dólares o euros.
Desde una perspectiva inversionista existe desde siempre la creencia que una tecnología innovadora garantiza que las
inversiones asociadas generen retornos rentables.
Aquí el riesgo real es el coste que asumen los inversores que confunden innovación con rentabilidad asegurada.
Por otro lado tenemos un inevitable impacto social derivado de la destrucción de empleo a gran escala. Hace tiempo que Goldman
Sachs estimó que la IA podría afectar a cerca de 300 millones de puestos de trabajo a tiempo completo en todo el mundo.
Es posible que pueda haber un reajuste en el ambito laboral, pero muy probablemente no será ni inmediato ni equilibrado.
Y esto nos llevará a un inevitable aumento de la ya prácticamente insostenible deuda pública para tratar de amortiguar el
impacto social.
Como consecuencia de lo anterior expuesto llegamos a la polarización política y social, echo que ya estamos viviendo actualmente
con la proliferación de discursos populistas, perdida de empleos y un aumento de la desigualdad social derivada
del desequilibrio y concentración de riqueza.
Para finalizar vamos a analizar El impacto ambiental de la inteligencia artificial, los centros de datos y las tecnologías relacionadas.
- Consumo energético y huella de carbono: El proceso de entrenamiento de LLMs requiere grandes cantidades de
poder computacional, lo cual se traduce en un alto consumo energético. Las unidades de procesamiento gráfico (GPU)
o unidades de procesamiento tensorial (TPU) utilizadas en el proceso al estar constantemente realizando operaciones
matemáticas intensivas, consumen una enorme cantidad de energía.
No hay datos 100% fiables de estos consumos ya que los existentes los proporcionan la propia industria, que aunque lleguen
a ser fiables no incluyen el impacto causado por ejemplo, de la extraccíon, refinamiento, construcción o transporte de los
componentes utilizados en los centros de datos.
- Fabricación y desecho de hardware: El hardware necesario, incluyendo servidores, unidades de
procesamiento gráfico (GPU) y otros componentes electrónicos, requiere una extracción intensiva de minerales y recursos
naturales.
La fabricación de estos dispositivos genera emisiones contaminantes y residuos peligrosos. Además, la rápida obsolescencia tecnológica lleva a una creciente cantidad de desechos electrónicos, que representan un problema ambiental considerable. - Explotación de recursos naturales: El incremento cada vez mayor de la infraestructura necesaria para soportar
la IA implica un crecimiento en la explotación de recursos naturales clave, desde millones de metros cúbicos de agua para
enfriar los centros de datos hasta los materiales para la fabricación de componentes electrónicos, que derivan en impactos
ambientales y sociales significativos.
- Destrucción medioambiental y de ecosistemas naturales: El aumento de la demanda de materias primas para centros de datos
contribuye significamente a la destrucción o fragmentación de hábitats naturales, poniendo en riesgo la biodiversidad y
desplazando especies de flora y fauna. Además, la expansión de estas infraestructuras puede afectar ecosistemas sensibles,
como bosques, humedales y áreas protegidas.
El aumento de demanda de cobre para centros de datos de IA agrava la presión sobre minas existentes y fomenta la apertura de nuevos proyectos, a menudo en regiones con ecosistemas frágiles.
La minería metálica suele implicar deforestación, generación de residuos tóxicos y alto consumo energético, amplificando la huella ecológica de la infraestructura digital que soporta la IA, y más importante aún agravando la ya de por si deplorable situación de los trabajadores de estas minas.
Nick Bostrom, autor de Superinteligencia: caminos, peligros, estrategias plantea una inquietante pregunta sobre los procesos de decisión de una máquina:
El riesgo está en la frialdad de la lógica de las máquinas.
Pongamos un caso hipotético:
si para lograr automejorarse en pocas horas necesitara toda la energía eléctrica de la Tierra y pudiera ingresar a todos los nodos que la controlan, lo haría.
Un planeta entero podría ser dejado a oscuras, no por maldad, sino por eficiencia. A menos, claro, que tuviera una instrucción explícita de no hacerlo.
¿La tiene?
A partir de aquí tal vez deberíamos hablar de realistas de la IA mas que de negacionistas. Cierto es que se han hecho avances
importantes por ejemplo en investigación y medicina, ¿cuántas veces hemos leído sobre detección de cáncer en imágenes analizadas
por IAs que de otro modo habrían sido imposibles de diagnosticar?
Lo que no cuentan esas noticias es que el reconocimiento de imágen por ordenador empezó en los años 70. En los 90 se lograron
importantes avances en la tecnología del reconocimiento de patrones utilizando técnicas estadísticas y matemáticas más avanzadas
y las redes neuronales convolucionales (CNN).
Finalmente esta "revolución" terminó de consolidarse del todo en 2012 con el reconocimiento facial gracias a los avances en
deep learning.
Estas tecnologías de investigación que nos venden en la actualidad como grandes avances en el campo de la IA, no son ni actuales
ni requieren de enormes centros de datos para su procesamiento, sino todo lo contrario.
El problema real de esta tecnología no es dicha tecnología en sí, son los usos que se le están dando.
¿Sabes que si la IA de la compañia aérea sabe que necesitas volar por la muerte de un familiar te cobrará el doble o el triple
por el pasaje?
¿Que los bancos a través de tus compras con tarjeta están calculando tu huella de carbono individual?
¿Que la app de tu compañia de seguro médico le dice a esa compañia si haces ejercicio, cuanto, las horas que duermes, las que
trabajas, etc. para calcular la prima?
¿Que se hacen analisis de modelos poblacionales para influir en las votaciones como se vió claramente en el lamentable
caso de Cambridge Analytica?
Y estos son solamente unos pocos ejemplos de hacia donde vamos. ¿que ocurrirá cuando se apruebe ChatControl o similar?
¿y el euro digital? ¿Y cuando se combinen todas esas tecnologías además de reconocimiento facial, geoposicionamiento a través del
celular y torres de telefonía?
En un mundo así, la democracia no puede sobrevivir.