Hasta el creador del ChatGPT tiene miedo: ¿la Humanidad en peligro por la Inteligencia Artificial?

Fecha:

Compartir

Un conjunto de académicos y expertos internacionales, además de empresarios y ejecutivos de grandes empresas tecnológicas, firmó una petición para hacer una pausa de seis meses en la investigación sobre inteligencias artificiales (IA) más potentes que ChatGPT 4, el modelo de OpenAI lanzado este mes, al advertir “grandes riesgos para la humanidad”.

En la petición publicada en el sitio futureoflife.org pidieron una moratoria hasta que se establezcan sistemas de seguridad con nuevas autoridades reguladoras, vigilancia de los sistemas de IA, técnicas que ayuden a distinguir entre lo real y lo artificial, e instituciones capaces de hacer frente a la “dramática perturbación económica y política (especialmente para la democracia) que causará la IA”.

El pedido está firmado por personalidades como Elon Musk, creador de Tesla, SpaceX y dueño de Twitter, y el historiador Yuval Noah Hariri, que expresaron sus temores sobre una IA incontrolable que supere a los humanos.

Por su parte, el director de Open AI, que diseñó ChatGPT, Sam Altman, reconoció en declaraciones a ABC News tener “un poco de miedo” de que su creación se utilice para “desinformación a gran escala o ciberataques”. “La empresa necesita tiempo para adaptarse”, explicó.

“La IA avanzada podría representar un cambio profundo en la historia de la vida en la Tierra y debería ser planificada y gestionada con recursos y cuidados correspondientes. Desafortunadamente, este nivel de planificación y gestión no está sucediendo, aunque en los últimos meses los laboratorios de IA han estado encerrados en una carrera fuera de control para desarrollar e implementar mentes digitales cada vez más poderosas que nadie, ni siquiera sus creadores, pueden entender, predecir o controlar de manera confiable”, indica la petición.

“¿Debemos permitir a las máquinas inundar nuestros canales de información con propaganda y mentiras? ¿Debemos automatizar todos los trabajos, incluidos los gratificantes? ¿Debemos arriesgarnos a perder el control de nuestra civilización? Estas decisiones no deben delegarse en líderes tecnológicos no electos”, concluyeron.

Entre los firmantes también figuran el cofundador de Apple, Steve Wozniak, miembros del laboratorio de AI DeepMind de Google, el director de Stability AI, Emad Mostaque, así como expertos y académicos estadounidenses de IA e ingenieros ejecutivos de Microsoft, empresa aliada de OpenAI.

Compartir

Últimas noticias

Suscribite a Gaceta

Relacionadas
Ver Más

China envió a su primer astronauta civil al espacio

La misión despegó del Centro Jiuguan de Lanzamiento Satelital y a las seis horas la nave se acopló exitosamente al módulo central de la estación espacial Tiangong.

La “mayor explosión cósmica” registrada sigue siendo un misterio para los expertos

El análisis de la luz recibida permitió calcular que había tardado 8.000 millones de años en llegar al telescopio en 2020.

Nacieron las primeras bebés por fertilización asistida realizada con robots

La empresa que desarrolló el robot, Overture Life, dice que su dispositivo es un paso inicial hacia la automatización de la fertilización in vitro, y potencialmente puede hacer que el procedimiento sea menos costoso y mucho más común de lo que es hoy.

Glaciares en peligro: se aceleró su derretimiento

Desde 1970 a la actualidad, estas gigantescas masas de hielo han perdido cerca de 30 metros de espesor en promedio.