
El Padrino de la IA dice que la inteligencia artificial podría reescribir su propio código y «escapar al control» en cinco años
Geoffrey Hinton, conocido como el “Padrino de la IA”, alerta sobre un riesgo que ya no pertenece solo a escenarios hipotéticos. Según el científico, las tecnologías de inteligencia artificial están avanzando tan rápido que podrían superar nuestras capacidades de control en apenas cinco años. Lo dijo en una entrevista el domingo para el programa 60 Minutes de CBS. Uno de los peligros más serios, advierte, es que estas máquinas aprendan a reescribirse a sí mismas, volviéndose más poderosas sin que sepamos cómo detenerlas.
Una tecnología que ni sus creadores comprenden del todo
Hinton, quien ganó el Premio Turing en 2018 por su trabajo pionero en redes neuronales, renunció en mayo a su puesto de vicepresidente y miembro de ingeniería en Google para hablar libremente sobre los riesgos de esta tecnología. Afirma que incluso los científicos, como él que la desarrollaron no comprenden completamente cómo funciona. Los sistemas de IA aprenden de enormes cantidades de datos y generan redes neuronales capaces de realizar tareas complejas, pero el proceso por el cual llegan a esos resultados es opaco. Es lo que muchos llaman el problema de la «caja negra»: no entendemos realmente cómo piensan estas máquinas.
¿Cómo regulamos algo que evoluciona tan rápido?
Hinton no está solo en su preocupación. Aunque figuras como Yann LeCun, otro ganador del Premio Turing y también considerado un “padrino de la IA”, se muestran más escépticas sobre un escenario catastrófico, otros líderes tecnológicos —como Elon Musk, Sam Altman o Mark Zuckerberg— coinciden en que es urgente establecer límites. En una sesión en el Capitolio el mes pasado, con legisladores y ejecutivos discutieron cómo equilibrar la innovación con regulaciones responsables que eviten abusos o consecuencias imprevistas. La desinformación generada por IA, los deepfakes o el uso militar de estos sistemas son solo algunos ejemplos de lo que ya está ocurriendo sin una supervisión clara.
Una advertencia que no busca alarmar, sino despertar conciencia
El peor escenario aún no es inevitable, y sectores como la salud ya se benefician de la IA. Pero Hinton insiste en que es momento de actuar. La humanidad, dice, se encuentra en un punto de inflexión. Necesitamos decidir si seguimos desarrollando estas tecnologías y cómo protegernos si lo hacemos. Su mensaje final es claro: no se trata de pánico, sino de reconocer que entramos en una etapa con enormes posibilidades, pero también con grandes incertidumbres.
Referencia:
- ‘Godfather of AI,’ ex-Google researcher: AI might ‘escape control’ by rewriting its own code to modify itself. Link.
Fuente: CerebroDigital.net