Nuevo programa de computación de Inteligencia artificial podría hacer las tareas escolares

Política

¿Por qué hacer tu tarea cuando un chatbot puede hacerlo por ti? Una nueva herramienta de inteligencia artificial llamada ChatGPT ha entusiasmado a Internet con sus habilidades sobrehumanas para resolver problemas matemáticos, redactar ensayos universitarios y escribir trabajos de investigación.

Después de que el desarrollador OpenAI lanzara el sistema basado en texto al público el mes pasado, algunos educadores han hecho sonar la alarma sobre el potencial que tienen estos sistemas de IA para transformar la academia, para bien o para mal.

«La Inteligencia Artificial básicamente arruinó la tarea» .

Ethan Mollick, profesor Wharton de la Universidad

La herramienta ha sido un éxito instantáneo entre muchos de sus estudiantes, dijo a NPR en una entrevista en Morning Edition, y su uso más obvio es una forma de hacer trampa al plagiar el trabajo escrito por IA, dijo.

Dejando a un lado el fraude académico, Mollick también ve sus beneficios como un compañero de aprendizaje.

Lo ha utilizado como asistente de su propio maestro, para ayudarlo a elaborar un plan de estudios, una conferencia, una tarea y una rúbrica de calificación para estudiantes de MBA.

«Puedes pegar trabajos académicos completos y pedirle que los resuma. Puedes pedirle que encuentre un error en tu código y lo corrija y te diga por qué lo hiciste mal», dijo. «Es este multiplicador de capacidad, que creo que no entendemos del todo, eso es absolutamente asombroso», dijo.

Pero el asistente virtual sobrehumano, como cualquier tecnología de inteligencia artificial emergente, tiene sus limitaciones. Después de todo, ChatGPT fue creado por humanos. OpenAI ha entrenado la herramienta utilizando un gran conjunto de datos de conversaciones humanas reales.

«La mejor manera de pensar en esto es que estás conversando con un pasante omnisciente y ansioso por complacer que a veces te miente», dijo Mollick.

Miente con confianza, también. A pesar de su tono autoritario, ha habido instancias en las que ChatGPT no le dirá cuándo no tiene la respuesta.

Eso es lo que descubrió Teresa Kubacka, una científica de datos con sede en Zúrich, Suiza, cuando experimentó con el modelo de lenguaje. Kubacka, que estudió física para su doctorado, probó la herramienta preguntándole sobre un fenómeno físico inventado.

«Deliberadamente le pregunté sobre algo que pensé que sabía que no existe para que puedan juzgar si en realidad también tiene la noción de lo que existe y lo que no existe», dijo.

ChatGPT produjo una respuesta que sonaba tan específica y plausible, respaldada con citas, dijo, que tuvo que investigar si el fenómeno falso, «un electromagnón cicloidal invertido», era realmente real.

Cuando miró más de cerca, el supuesto material de origen también era falso, dijo. Había nombres de conocidos expertos en física en la lista; sin embargo, los títulos de las publicaciones que supuestamente escribieron no existían, dijo.

Aquí es donde se vuelve un poco peligroso”, dijo Kubacka. “En el momento en que no puedes confiar en las referencias, también erosiona la confianza en citar ciencia”, dijo.

Los científicos llaman a estas generaciones falsas «alucinaciones».

«Todavía hay muchos casos en los que le haces una pregunta y te da una respuesta que suena muy impresionante y que está completamente equivocada», dijo Oren Etzioni, director ejecutivo fundador del Instituto Allen para la IA, que dirigió la investigación sin fines de lucro hasta que recientemente. «Y, por supuesto, eso es un problema si no verificas o corroboras cuidadosamente los hechos».

Una oportunidad para examinar las herramientas de lenguaje de IA
Se advierte a los usuarios que experimentan con la vista previa gratuita del chatbot antes de probar la herramienta que ChatGPT «ocasionalmente puede generar información incorrecta o engañosa», instrucciones dañinas o contenido sesgado.

Sam Altman, director ejecutivo de OpenAI, dijo a principios de este mes que sería un error confiar en la herramienta para algo «importante» en su iteración actual. «Es una vista previa del progreso», tuiteó.

Las fallas de otro modelo de lenguaje de IA presentado por Meta el mes pasado llevaron a su cierre. La compañía retiró su demostración de Galactica, una herramienta diseñada para ayudar a los científicos, solo tres días después de que alentó al público a probarla, luego de las críticas de que arrojaba texto sesgado y sin sentido.

De manera similar, Etzioni dice que ChatGPT no produce buena ciencia. A pesar de todos sus defectos, sin embargo, ve el debut público de ChatGPT como algo positivo. Él ve esto como un momento para la revisión por pares.

«Me gusta decir que ChatGPT tiene solo unos días», dijo Etzioni, quien permanece en el instituto de IA como miembro de la junta y asesor. Es «darnos la oportunidad de entender lo que él puede y no puede hacer y comenzar en serio la conversación de ‘¿Qué vamos a hacer al respecto?’ «

La alternativa, que él describe como «seguridad por oscuridad», no ayudará a mejorar la IA falible, dijo. «¿Qué pasa si ocultamos los problemas? ¿Será esa una receta para resolverlos? Por lo general, no en el mundo del software, eso no ha funcionado».