Hola que tal, un saludo para todos, gracias por su visita al blog de un servidor.
Poco a poco la inteligencia artificial va formando parte de nuestra vida: es muy probable que en nuestro teléfono celular tengamos un asistente para buscar contactos, hacer llamadas, consultar el clima, todo esto con voz.
O tal vez tengamos un asistente que encienda las luces de la casa cuando se lo pidamos, bueno, ese es un ejemplo de uso de la inteligencia artificial en la vida cotidiana, pero como la tecnología no para de crecer los ingenieros quieren crear una IA (inteligencia artificial) más capaz, una en la que no solo le pidamos algo y lo haga, sino que interactúe con nosotros tal como lo haríamos si conversáramos con un amigo.
Este es el caso de chatGPT de la que he hablado en otro momento (pueden visitar estos dos artículos al respecto: ¿Será verdad que ChatGPT va a acabar con los profesores y otros expertos? (opinión) y ¿Por qué nuestros bots aún no suplantan totalmente a un humano? (opinión)), bueno, antes que nada debemos registrarnos en la web de OpenIA para usarla y preguntar lo que gustemos.
Pues Bing (de Microsoft) se apresuró a implementar está IA en su buscador pero parece que no lo hicieron bien pues después de un rato o bajo mucha insistencia sobre un tema su IA se vuelve loca, así que Microsoft ha tomado la decisión de limitar su uso a unas cuantas preguntas por sesión para evitar escenitas como las siguientes:
Cabe aclarar que está funcionalidad en Bing está solo por invitación, hay que registrarse y esperar unos días, por lo que no he tenido de probar Bing con IA conversacional, pero chatGPT puro no parece tener esta problemática. Creo que se trata personalmente de una mala implementación de chatGPT en Bing o una mala calibración de la misma.
Conclusiones:
Mi primer conclusión fue atacarme de la risa al ver el vídeo, pero ya siendo serios creo que aún hay mucho camino por recorrer en cuanto a las IA. Esperamos que Microsoft corrija estos errores garrafales y cualquier otra implementación no se vuelva loca también (cómo pasó con Tay hace unos años - también de Microsoft por cierto). Un agradecimiento a EdTeam por esta información.
Si les gustó este artículo por favor dejen sus comentarios, un saludo afectuoso.