fbpx

La IA plantea un riesgo de extinción, afirman los expertos

La IA plantea un riesgo de extinción
Procesador de Inteligencia Artificial | Imagen de Bounyong Koulavong/Shutterstock

Una carta abierta que hace sonar la alarma sobre la amenaza potencial de extinción que plantean las formas avanzadas de inteligencia artificial (IA) ha obtenido cientos de firmas de personas destacadas de la industria.

Publicada por el Center for AI Safety sin fines de lucro el 30 de mayo, la carta llamadas para que los formuladores de políticas eleven el riesgo de extinción de la IA al mismo nivel de consideración que otros problemas de gran alcance como la guerra nuclear y las pandemias.

Entre los 350 signatarios, se destacan varios altos ejecutivos de tecnología, académicos de informática y pioneros de la industria:

  • Geoffrey Hinton, exvicepresidente de Google y pionero de la IA, dejó recientemente su cargo para hablar con más libertad sobre los riesgos que presenta para la sociedad el rápido avance de la tecnología, como el expreso de dallas reportaron.
  • Sam Altman, director ejecutivo de OpenAI, se ha pronunciado sobre la desinformación, los ataques cibernéticos y la supuesta amenaza existencial de la tecnología impulsada por IA.
  • Demis Hassabis, CEO de DeepMind Technologies, les dijo a Time Magazine que AI estaba a punto de crear instrumentos capaces de causar una destrucción grande y generalizada a la humanidad.
  • Yoshua Bengio, un investigador canadiense galardonado, es uno de los llamados "abuelos de la IA" que expreso arrepentirse de su trabajo, comparándose con los investigadores detrás de la bomba atómica.

En marzo, una carta abierta firmado por Elon Musk y otros pidieron que todos los proyectos de aprendizaje automático a gran escala se detuvieran durante seis meses. Al desacelerar el progreso, los signatarios esperan desarrollar sistemas de gobernanza para mitigar cualquier posible riesgo de IA para la humanidad.

Hablando ante el Subcomité Judicial del Senado sobre Privacidad, Tecnología y la Ley el 16 de mayo, Altman dijo: “Mis peores temores son que nosotros [la industria de la tecnología] causemos un daño significativo al mundo... Si esta tecnología falla, puede salir bastante mal. equivocado."

“Queremos trabajar con el gobierno para evitar que eso suceda”, agregó Altman.

Los legisladores del Congreso están trabajando actualmente para desarrollar una legislación que aborde algunas de las preocupaciones que rodean a la IA.

Líder de la mayoría del Senado Chuck Schumer (D-NY) ha sido trabajando en un marco para regular la IA, y el senador Michael Bennet (D-CO) está tratando de crear un grupo de trabajo para examinar las políticas de IA y su impacto en las libertades civiles de las personas, así como para señalar cualquier deficiencia de supervisión.

Aún así, Bengio tiene , que son Los intentos de los legisladores de regular la IA y evitar que los malos actores la adopten son "lentos", según el Financial Post.

Por ejemplo, los bots impulsados ​​por IA se pueden usar para retratar a los humanos en línea.

“Los usuarios necesitan saber que están hablando con una máquina o un ser humano. Las cuentas en las redes sociales, etc., deben ser reguladas para que sepamos quién está detrás de la cuenta, y tienen que ser seres humanos la mayor parte del tiempo”, dijo Bengio, informó el Financial Post.

Si bien la mayoría de los líderes de la industria están de acuerdo en que la IA necesita algún tipo de barrera legal, no todos esperan que la IA eclipse a la humanidad.

Hablando con USA Today, Michael Hamilton, cofundador de la firma de gestión de riesgos Critical Insight, afirmó que la IA no se volvería consciente de sí misma en el corto plazo y solo se desarrollaría tanto como lo permitieran los humanos.

Apoya nuestro periodismo sin fines de lucro

Nos encantaría saber de ti, déjanos un comentario.

Su dirección de correo electrónico no será publicada. Las areas obligatorias están marcadas como requeridas *

Continuar leyendo en la aplicación
Ampliar artículo