ChatGPT estaría desinformando e inventado estudios que no existen

La aparición de ChatGPT ha revolucionado el mundo de la inteligencia artificial, pero cada vez que se prueba sus diferentes posibilidades, también se revelan varios de sus puntos débiles.

Según el sitio web Gearrice, ChatGPT está desinformando y respondiendo a los usuarios hechos inventados.

Lo preocupante del asunto es que el chat de OpenAI está ofreciendo información que aparentemente es de ‘fuentes confiables’, pero no es más que invenciones del propio ChatGPT.

Además, el mismo medio señaló que ChatGPT estaría inventando artículos completos del diario británico The Guardián que, en realidad, nunca se publicaron.

Chris Moran, jefe de innovación editorial de The Guardian, expresó que “esta peculiaridad específica es particularmente preocupante para las organizaciones de noticias y para los periodistas, cuya inclusión agrega legitimidad y peso a una fantasía escrita de manera persuasiva”.

TE PUEDE INTERESAR: Empleados De Samsung Filtraron Datos Confidenciales A ChatGPT

Más sobre los inventos de ChatGPT

  • Moran también expresó su preocupación ante esta problemática, ya que los usuarios pueden fiarse de que el contenido que comparte ChatGPT es confiable y valioso.
  • “Para los lectores y el ecosistema de la información, abre preguntas completamente nuevas sobre si se puede confiar en las citas de alguna manera. Y bien podría alimentar teorías de conspiración sobre temas delicados que nunca existieron”, aseguró Moran.
  • El sitio web Futurism citó en uno de sus artículos que varios periodistas de USA Today se sorprendieron al descubrir que ChatGPT había presentado fuentes de estudios de investigación sobre cómo el acceso a las armas no aumentan el riesgo de mortalidad infantil. Pero la realidad es que esos estudios, eran inventados.
  • ChatGPT ‘se defendió’ y citó que la referencias que había proporcionado “son genuinas y provienen de revistas científicas revisadas por pares”, lo cual es mentira.
  • Lo cierto es que esta problemática es preocupante, ya que existe la posibilidad de que ni los usuarios, ni el propio ChatGPT sean capaces de distinguir la verdad de la ficción. Varios medios han expresado que ahora es responsabilidad de las compañías que desarrollan las IA, dar soluciones y prestar atención a esta problemática que con el tiempo puede volverse aún mas preocupante.

Foto: David Rangel, vía Unsplash

Deja una respuesta