🔸 La aplicación incluirá controles parentales y evalúa conectar a adolescentes con un contacto de emergencia y, a futuro, con terapeutas certificados
#INTERNACIONAL | La empresa OpenAI reconoció este martes que su chatbot de inteligencia artificial, ChatGPT, ha presentado fallos en casos delicados y anunció que implementará nuevas medidas de seguridad para fortalecer la protección de los usuarios.
En una publicación titulada “Ayudar a la gente cuando más lo necesitan”, la compañía explicó que, aunque ChatGPT está entrenado para recomendar a quienes manifiesten problemas emocionales el contacto con organizaciones de apoyo profesional, los mecanismos de seguridad actuales no siempre funcionan como deberían en interacciones prolongadas.
La firma indicó que sus sistemas tienden a responder mejor en conversaciones cortas, pero en diálogos extensos el desempeño puede degradarse, por lo que trabajan en mejorar la detección y la respuesta ante señales de vulnerabilidad.
OpenAI detalló que ChatGPT ya cuenta con medidas de protección para personas menores de 18 años, y que próximamente se sumarán controles parentales que permitan a los tutores conocer cómo utilizan la tecnología los adolescentes. También explora la posibilidad de incluir un contacto de emergencia directo para casos que lo ameriten.
Entre los avances previstos, la empresa señaló que su modelo GPT-5 incorporará herramientas para ayudar a desescalar situaciones emocionales y conectar a los usuarios con recursos confiables. Además, estudia la opción de integrar una red de profesionales certificados que puedan ofrecer acompañamiento a través de la plataforma, aunque reconoció que esta iniciativa tomará tiempo en concretarse.
Con estas medidas, OpenAI busca ampliar sus protocolos de seguridad, que hasta ahora se enfocaban principalmente en la prevención de conductas de autolesión, para cubrir también casos relacionados con angustia emocional.