ChatGPT

ChatGPT: ¿Es manejable el plagio con inteligencia artificial?

A tan solo unos meses desde su lanzamiento, el ChatGPT ha revolucionado la educación, generando un grave problema

Los profesores, los jefes de departamento y los administradores universitarios están comenzando a transformar el salón de clases en respuesta al chat, orientado a  un potencial giro mayor en la enseñanza y el aprendizaje.

El ChatGPT lanzado en noviembre de 2022 por el laboratorio de Inteligencia Artificial OpenAI,  ha generado una tarea titánica en el sector académico. En poco tiempo, la herramienta es la predilecta de los estudiantes para cometer plagio con poco esfuerzo. De acuerdo con una publicación compartida desde The Standard Cio, la situación generó que el  ChatGPT se convierta en uno de los temas principales de la agenda en numerosas universidades.

Actualmente, se han establecido grupos de trabajo y de discusión para responder a la herramienta, donde el enfoque principal ha estado orientado a la adopción de la misma. Los profesores, los jefes de departamento y los administradores universitarios están comenzando a transformar el salón de clases en respuesta a ChatGPT, orientado a un potencial giro mayor en la enseñanza y el aprendizaje.

El ChatGPT y los retos en el sector académico

Estos son algunos enfoques que se están considerando y adoptando:

  • Los educadores están progresivamente eliminando trabajos remotos a libro abierto. En su lugar están prefiriendo asignaciones realizadas en clase, trabajos en grupo y exámenes orales.
  • Algunos profesores están rediseñando sus cursos totalmente, introduciendo cambios que incluyen exámenes orales, trabajo en grupo y evaluaciones manuales en lugar de impresas.
  • Otros educadores están planteando hacer preguntas que sean demasiado ingeniosas para los chatbots y pidiéndole a los estudiantes que hablen de sus propias vidas y de eventos actuales.
  • Un jefe de cátedra en Humanidades piensa enseñar textos más recientes o poco comunes sobre los cuales ChatGPT pudiera tener, menos información. Un ejemplo serían los sonetos de la etapa inicial de William Shakespeare, en lugar de la obra “Sueño de una noche de verano”.
  • Algunos sistemas de educación pública importantes, como los de las ciudades de Nueva York y Seattle, prohibieron la herramienta en las redes de Wifi de las escuelas, con la intención de prevenir los fraudes. A nivel universitario, las instituciones han estado renuentes a prohibir la herramienta de Inteligencia Artificial, por cuanto los administradores dudan que la medida sea efectiva y además no quieren infringir la libertad académica.
  • Varias universidades están buscando definir límites para la Inteligencia Artificial, donde algunas están revisando sus políticas de integridad académica, de manera que las definiciones de plagio incluyan la Inteligencia Artificial Generativa. Esto considera definiciones como “el uso de texto escrito por un sistema generativo como si fuera uno propio”, siendo un ejemplo la entrada de una pregunta a una herramienta de IA y el uso de su resultado en un ensayo.

Un esfuerzo de todos

Individualmente, los profesores también están tomando sus propias medidas. Un informe asegura que más de 6.000 profesores de importantes universidades del Este de Estados Unidos se han suscrito a GPTZero, un programa que promete detectar rápidamente texto generado por IA. Asimismo, OpenAI reconoce que sus programas pueden ser utilizados para engañar o confundir a las personas y por ello está desarrollando tecnología para ayudar a los usuarios a identificar texto generado por ChatGPT.

Aunque ahora el ChatGPT es uno de los más utilizados para cometer este tipo de delito, el esfuerzo vale para todas las tecnologías similares presentadas en los últimos meses, y en las que seguirán apareciendo, como un ejemplo indiscutible del potencial de la inteligencia artificial.

Este reporte es mucho más extenso e interesante, de modo que si lo quieres ver completo, te invitamos a continuar su lectura en nuestra web hermana, The Standard CIOhaciendo clic en el enlace de abajo: