Los expertos en informática de la Universidad del Sur de California (USC) comparten sus perspectivas sobre el ascenso meteórico de la aplicación de IA generativa ChatGPT.
Desde su lanzamiento en noviembre de 2022, ChatGPT ha ganado una gran popularidad y un uso generalizado, con millones de usuarios en todo el mundo recurriendo a la tecnología de IA generativa para iniciar conversaciones que van desde lo práctico hasta lo creativo.
Pero si bien es prometedora para aplicaciones como escribir cartas de presentación, depurar código e incluso escribir guiones y letras, la popularidad de la aplicación también abre dilemas éticos. ¿Qué tan precisas son las respuestas? ¿Cómo fue entrenado? ¿Cómo podría esto cambiar la forma en que vivimos, para bien o para mal? ¿Y confiaría en él para actuar como su terapeuta?
Para tener una idea de las posibles promesas y peligros de ChatGPT, recurrimos a un grupo de investigadores de informática de la USC y expertos en procesamiento de lenguaje natural.
¿Cómo te sientes acerca del rendimiento general de ChatGPT?
“Estoy impresionado con su habilidad para generar respuestas rápidas, coherentes y relevantes y mantener la conversación en marcha. Algunas áreas específicas que son particularmente impresionantes son su capacidad para generar código, depurar código y resumir contenido web, y hacerlo en una conversación de varios turnos donde puede recordar el intercambio de información anterior. También me tranquiliza su capacidad para hacer cumplir las salvaguardas contra algunos temas potencialmente tóxicos, aunque la gente ha descubierto soluciones desde su introducción”. —Swabha Swayamdipta, Profesor Asistente de Gabilan y Profesor Asistente de Ciencias de la Computación
“Definitivamente estoy entusiasmado con su desempeño. Estoy seguro de que muchos investigadores de PNL no esperaban que este nivel de rendimiento pudiera alcanzarse tan pronto. La idea de alto nivel detrás de esto no fue complicada y el diablo está en los detalles de implementación y computación. Es por eso que es menos un avance científico para los investigadores, pero más una gran victoria para ‘el escalamiento puede darnos mucho más’”. — Xiang Ren, Andrew y Erna Viterbi Presidente de Carrera Temprana y Profesor Asistente de Ciencias de la Computación
“En general, ChatGPT y los modelos de lenguaje preentrenado a gran escala que hemos visto surgir en los últimos años han sido sorprendentemente buenos en la generación de lenguaje sin restricciones. ‘Bueno’ significa ‘contenido generado que es relevante para el mensaje/pregunta y es sintácticamente correcto y localmente coherente’. Dicho esto, es difícil decir qué es asombroso y qué no lo es con un modelo de código completamente cerrado”. — Jesse Thomason, profesor asistente de informática
¿En qué se diferencia GPT de otros modelos de generación de idiomas?
“ChatGPT y sus variantes están específicamente capacitados para manejar bien las instrucciones. ChatGPT también está diseñado para incorporar comentarios humanos a través de múltiples rondas de conversación. Los modelos de lenguaje típicos simplemente se entrenan en el texto, es decir, dado un fragmento de texto, predice qué palabras deben seguirlo. ChatGPT se creó utilizando el lenguaje de modelado extremadamente grande que se utilizó en la creación de su predecesor, GPT-3, entrenado en casi 45 TB de datos. Por supuesto, OpenAI no ha publicado los detalles exactos sobre cómo se entrenó ChatGPT, por lo que hay muchos detalles desconocidos». — Swabha Swayamdipta
¿Cuáles son algunas de sus limitaciones? ¿Podemos confiar en este tipo de sistema?
“Desde mi perspectiva, el problema más preocupante es lo que llamamos ‘alucinación’ durante una conversación de ChatGPT con humanos. La respuesta le parecerá bastante creíble a un profano en términos de tono y redacción, pero puede estar totalmente equivocada en términos de factualidad. Esto puede ser dañino cuando se usa para escenarios educativos y engañar a los tomadores de decisiones para que confíen en evidencia errónea en sus predicciones”. – Xiang Ren
“Aunque no estaba capacitado para resolver problemas matemáticos, algunos de los errores básicos que comete son bastante decepcionantes. En un nivel superior, la limitación más fundamental de ChatGPT es su falta de fiabilidad. Hay algunas preguntas a las que puede proporcionar respuestas relevantes, concisas y apropiadas, mientras que otras están completamente equivocadas. Y no puedes predecir cuándo te equivocas. Esto será un obstáculo fundamental para su implementación”. — Swabha Swayamdipta
«Creo que ChatGPT y los modelos relacionados harán que sea mucho más fácil para los actores estatales y las empresas de malware o fraude inundar los sitios de contenido de los usuarios y el correo electrónico con grandes volúmenes de spam coherente y difícil de detectar tal como se genera». -Jess Thomason
¿Tienes preguntas sobre el potencial de generar contenido falso y cómo puede impactar en la sociedad? (¿Podría, por ejemplo, alimentar una crisis de integridad científica?)
“Este es definitivamente un riesgo que conlleva cualquier modelo de lenguaje: la tendencia a ‘alucinar’ nueva información que puede parecer real pero en realidad no lo es. Sin embargo, creo que pronto mejoraremos en la identificación de las generaciones de ChatGPT en lugar del lenguaje escrito humano, o más bien, seremos capaces de construir esta tecnología. Y claro, puede engañar a los revisores, pero no puede presentarse en conferencias, realizar experimentos o hacer trabajo de campo. Puede haber algunos casos exitosos que engañen a los humanos antes de que podamos aprender a detectar estas falsificaciones”. — Swabha Swayamdipta
¿Hay áreas en las que vea una oportunidad para que ChatGPT ayude a las personas a hacer su trabajo?
“Creo que puede generar una era diferente de la escritura, donde, en lugar de escribir desde cero, los escritores aprenderán a usar ChatGPT como un asistente que brinda ideas. Lo mismo puede decirse de los programadores. Creo que muchos están entusiasmados con el potencial de ChatGPT para actuar como terapeuta de IA, algo con lo que no me siento del todo cómodo. Por un lado, no puede simplemente reemplazar a los terapeutas humanos, particularmente para pacientes en riesgo, como aquellos propensos a comportamientos dañinos. Creo que hay muchos riesgos asociados con esta característica y se deben implementar salvaguardas antes de que este tipo de funcionalidad esté ampliamente disponible”. — Swabha Swayamdipta