La tecnología computacional ha revolucionado la forma en que opera gran parte del mundo, desde la agricultura hasta la ciencia espacial. La inteligencia artificial (IA) es una rama que ha captado un inmenso interés popular y científico en las últimas décadas. Un nuevo artículo de investigación analiza el papel que podría desempeñar en la práctica de la obstetricia y ginecología (OBG) en el futuro.
Opinión clínica: El emocionante potencial de ChatGPT en obstetricia y ginecología. Haber de imagen: cono0430/Shutterstock
Introducción
El procesamiento del lenguaje natural (NLP) es una rama de la IA que se ocupa de cómo las computadoras reconocen y manejan el lenguaje humano. Los avances recientes han llevado a un excelente reconocimiento computacional del texto y el habla humanos a través de modelos de aprendizaje profundo.
El recién introducido ChatGPT es el niño del cartel de estos avances tecnológicos, ya que parece mostrar que las computadoras pueden ‘hablar’ con los humanos usando un lenguaje gramatical y complejo para transmitir ideas complejas.
ChatGPT es un chatbot en línea disponible públicamente lanzado en noviembre de 2022. El GPT en su nombre proviene del hecho de que fue desarrollado por una empresa llamada IA abierta, basado en un modelo NLP llamado Transformador Preentrenado Generativo (GPT). Sus ventajas incluyen una interfaz simple mediada por texto en ambos lados, un conjunto de datos masivo de 57 mil millones de palabras o más y 175 mil millones de parámetros obtenidos de una búsqueda en Internet, libros y otras fuentes.
Esto significa que ChatGPT puede acceder a materiales relacionados con una gran variedad de disciplinas, lo que lo hace capaz de manejar preguntas de información o indicaciones de múltiples áreas. Por ejemplo, puede escribir un artículo o proporcionar una respuesta a una pregunta basada en una situación clínica en un lenguaje sencillo, demostrando su habilidad en el ámbito de las tareas del lenguaje. Sin embargo, ha sido acusado de inventar términos para proporcionar respuestas aparentemente correctas pero erróneas.
El estudio actual, publicado en línea en el Revista americana de obstetricia y ginecologíaes una demostración de la vida real de cómo ChatGPT podría ayudar a los usuarios interesados en temas de OBG al poner a disposición información introductoria sobre cualquier área de esta disciplina.
¿Qué mostró el estudio?
Los autores le hicieron al chatbot una serie de preguntas destinadas a evaluar qué tan bien ChatGPT podría manejar la necesidad de proporcionar información auténtica sobre temas de OBG. Los temas abordados variaron desde el parto prematuro, pasando por la suplementación con progesterona, hasta la terminología específica de género.
En general, las respuestas fueron “matizado, elocuente, informado, virtualmente sin errores gramaticales.” Podría ayudar a educar tanto a los pacientes como a sus proveedores de atención médica utilizando un lenguaje fácil de entender para transmitir la información de manera nítida y clara.
Sin embargo, las respuestas pueden cambiar con el tiempo a medida que se actualicen y amplíen los conjuntos de datos y que el modelo continúe aprendiendo de las indicaciones proporcionadas por los usuarios. Las respuestas pueden incluso contradecirse si las indicaciones están redactadas de manera incorrecta o en formas diferentes.
Esto es atribuible al hecho de que su conjunto de entrenamiento contiene información relacionada con ambos lados de cualquier pregunta, lo que dificulta producir una única respuesta “correcta”.
Por otro lado, los conjuntos de datos utilizados para entrenar el modelo son más antiguos y no se pueden actualizar rápidamente cuando sea necesario debido al costo y el tiempo necesarios. Por lo tanto, todas las respuestas se basan en datos de 2021 o anteriores.
“ChatGPT es tan bueno como sus datos de entrenamiento derivados. Estos datos son potencialmente sesgados, poco confiables y no necesariamente actualizados.”
Esta es una característica de ChatGPT que todos sus usuarios deberían conocer, ya que impide la presentación de vistas que tengan en cuenta investigaciones posteriores a esta fecha.
En segundo lugar, el hecho de que ChatGPT, después de todo, no sea humano puede dar lugar a malentendidos en las consultas. Además, no proporciona citas de sus fuentes, lo que podría inducir a error al usuario haciéndole creer que las respuestas son sólidas cuando podrían derivarse de fuentes potencialmente defectuosas. “Un ChatGPT aparentemente satisfactorio corre el riesgo de ser engañoso sin la debida advertencia.”
Finalmente, no razona, solo recopila datos.
“ChatGPT a veces escribe respuestas que suenan plausibles pero incorrectas o sin sentido y que a veces responde a instrucciones dañinas o exhibe un comportamiento sesgado.”
OpenAI ya ha declarado las limitaciones de ChatGPT, y los usuarios harían bien en prestar atención a estas advertencias mientras aprovechan sus ventajas.
¿Cuáles son las implicaciones?
Los autores del estudio concluyen que, a pesar de la ventaja obvia de tener una fuente de información temprana para los usuarios que están ansiosos por saber más sobre condiciones específicas de lo que se puede brindar en una consulta típica con sus proveedores de atención médica, ChatGPT también tiene limitaciones significativas.
Descubrieron que tiene el potencial de educar a los usuarios de una manera legible, comprensible y, en general, correcta, evitando errores y desinformación. Sin embargo, puede proporcionar respuestas incorrectas, contradictorias o desactualizadas, lo que podría inducir a error a los usuarios. Debe admitirse que tampoco se garantiza que otras publicaciones científicas brinden la evidencia más reciente.
Revistas como JAMA han anunciado pautas sobre el uso de dichas tecnologías en sus publicaciones. Esto se basa en reconocer las limitaciones de los chatbots como fuentes de información científica y la posibilidad de plagio. La verificación de la precisión es una precaución obligatoria si estos modelos se utilizan para facilitar la redacción de textos científicos.
“Los autores creen que ChatGPT y la perspectiva de nuevos modelos por venir tienen la posibilidad de agregar una nueva dimensión a nuestra especialidad.. Uso responsable de [such models] será importante para garantizar que trabajen para ayudar pero no para perjudicar a los usuarios que buscan información en Obstetricia y Ginecología.”


