Advierten que Inteligencia Artificial pone en riesgo valores occidentales: «atenta contra la libertad y el pensamiento»

Variedades | marzo 31, 2023 | 8:22 am | .

El filósofo y político José Rafael Herrera advirtió este viernes que la Inteligencia Artificial (IA) se ha convertido en una cosa «terrible» ya que pone en riesgo los valores occidentales «democracia, libertad y pensamiento».

El impacto de la IA fue tema de debate de varios especialistas esta mañana, durante el programa de Román Lozinski en Circuito Éxitos. Herrera, profesor de la UCV, descartó que la IA sea calificada como una ciencia y sostuvo que se ha convertido en un peligro para la sociedad.

«Yo no estoy de acuerdo con que esto sea una ciencia, es una razón instrumental o racionalidad instrumental que no es lo mismo que un desarrollo científico. Yo entiendo la innovación desde el punto de vista de avances tecnológicos que son asombrosos. Sin embargo, cuando los propios creadores se preocupan ante la situación es porque hay una disociación entre el desarrollo tecnológico y la vida ética; entre el desarrollo tecnológico y el alcance que puede tener para el desarrollo de la humanidad».

En este sentido, sostuvo que el fenómeno que vive el mundo con la IA se asemeja a la novela de George Orwell «1984».

«Nos sentimos vigilados, penetrados y no por humanos sino por lo técnico. Esto es una cosa terrible. Estamos sometidos a algoritmos, estamos identificados, somos totalmente vulnerables, no tenemos independencia. Los valores de occidente son los que están en riesgo: la libertad, la justicia, el pensamiento. Esto atenta contra la intimidad y la autonomía del ser humano, es grave y delicado».

Por su parte, el periodista de tecnología, Juan Carlos Araujo comentó que un colega suyo que vive en EEUU, tuvo inconvenientes legales con una inquilina y le pidió al ChatGPT, un prototipo que funciona con IA, que redactara un documento y al mostrárselo a su abogado, este le aseguró «está impecable».

«En principio, se pensó que la IA pondría en riesgo empleos más mecánicos, pero ahora vemos que son capaces de hacer cualquier tarea de carga intelectual. Todo esto ha sido en cuatro meses porque hemos visto como la montaña rusa de IA se ha acelerado en menos de 4 meses, por lo que no sabremos que ocurrirá durante los próximos meses».

¿Qué es la IA?

El periodista experto en teconología, Nelsón Eduardo Bocaranda discrepó del profesor Herrera y calificó a la IA como una ciencia que se enfoca en crear computadoras o sistemas inteligentes para que realicen tareas humanas, entender el lenguaje natural, tomas decisiones y reconocer imágenes.

«Usa algoritmos, modelos estadísticos y enorme cantidad de data para entrenar modelos de aprendizaje mecánico».

Afirmó que aunque cuesta explicarlo en palabras, el mundo está viendo sus implicaciones reales a través de diversos programas o aplicaciones. «Vemos como toman la data que existe para responder preguntas en un lenguaje natural y desarrollar hilos de información que profundizan las interrogantes. Son sistemas únicos que convierten preguntas o indicaciones de texto en imágenes, y estamos viendo también video y audio».

«El debate es quién es el autor, cómo se alimentan esos modelos y debemos recordar que un gran poder conlleva una gran responsabilidad por lo que se deben generar modelos más responsables», acotó.

Piden parar la IA porque es un peligro para la humanidad

Un grupo de expertos en inteligencia artificial y ejecutivos de la industria tecnológica pidieron una pausa de seis meses en el entrenamiento de los poderosos sistemas de inteligencia artificial, argumentando que se trata de una potencial amenaza para la humanidad. En una carta abierta, aseguraron que los laboratorios que trabajan con esta tecnología están en «una carrera fuera de control para desarrollar e implementar mentes digitales cada vez más poderosas que nadie, ni siquiera sus creadores, pueden comprender, predecir o controlar de forma fiable».
La declaración fue firmada por más de 1.000 personas, incluidos el empresario Elon Musk, el cofundador de Apple, Steve Wozniak, y el director ejecutivo de la firma Stability AI, Emad Mostaque, además de investigadores de la firma DeepMind. reseñó BBC.
En ella, piden que las empresas que desarrollan este tipo de programas «pausen de inmediato, durante al menos 6 meses, el entrenamiento de los sistemas de inteligencia artificial más potentes que GPT-4».