El popular sistema de inteligencia artificial (IA) ChatGPT de OpenAI sufrió un pequeño colapso público entre el 20 y 21 de febrero, en el que confundió y desconcertó a los usuarios emitiendo incoherencias y otras rarezas, incluido un seudoshakespeare no solicitado.
A las 8:14, hora estándar del Pacífico, del 21 de febrero, el problema aparentemente ha sido resuelto. La última actualización en la página de Estado de OpenAI indica que "ChatGPT está operando normalmente". Esto indica que el problema se resolvió 18 horas después de que OpenAI lo informara por primera vez.
chatgpt is apparently going off the rails right now and no one can explain why pic.twitter.com/0XSSsTfLzP
— sean mcguire (@seanw_m) February 21, 2024
Something in my data file sent ChatGPT into a spiral that ended with it… speaking like Shakespeare? To its credit, it worked…. #surcease pic.twitter.com/4wHxVzF0Pw
— NCAAB Market Picks (@cbbmarketpicks) February 21, 2024
En este momento no está claro qué causó exactamente el problema, y OpenAI aún no ha respondido a nuestra solicitud de comentario.
Según un examen superficial de las salidas informadas, parece que ChatGPT experimentó algún tipo de confusión en la tokenización. Debido a la naturaleza de caja negra de los modelos de lenguaje grandes construidos con tecnología GPT, puede que no sea posible para los científicos de OpenAI diagnosticar exactamente qué salió mal. Si este es el caso, es probable que el equipo se centre en medidas preventivas, como implementar más protecciones contra cadenas largas de aparente sin sentido.
La percepción en las redes sociales parece indicar que cualquier daño causado por el chatbot fue, en gran medida, limitado a perder el tiempo de los usuarios que esperaban respuestas coherentes a las consultas.
Sin embargo, esta instancia ilustra el potencial de los sistemas de inteligencia artificial generativa para enviar mensajes inesperados, alucinados o inconsistentes en cualquier momento. Estos tipos de respuestas no deseadas pueden tener consecuencias negativas.
Air Canada, por ejemplo, descubrió recientemente que no podía culpar al algoritmo cuando un tribunal le ordenó pagar un reembolso parcial a un cliente que había recibido información incorrecta sobre las políticas de reservas de un chatbot de servicio al cliente.
En el mundo de las criptomonedas, los inversores están utilizando cada vez más sistemas automatizados basados en modelos de lenguaje grandes y tecnología GPT para crear carteras y realizar operaciones. Como indica el reciente fallo de ChatGPT, incluso los modelos más robustos pueden experimentar fallas inesperadas a cualquier escala.
Aclaración: La información y/u opiniones emitidas en este artículo no representan necesariamente los puntos de vista o la línea editorial de Cointelegraph. La información aquí expuesta no debe ser tomada como consejo financiero o recomendación de inversión. Toda inversión y movimiento comercial implican riesgos y es responsabilidad de cada persona hacer su debida investigación antes de tomar una decisión de inversión.