Talkdesk QM Assist: Mejores Prácticas

Considerar Form Types: solo AI, tanto AI como manual, o híbrido/mezclado

Cuando empiece a incorporar AI/puntuación automatizada en su programa de garantía de calidad y planifique la creación de formularios (plantillas de puntuación), algunas preguntas que pueden venir a la mente son:

  • ¿Debo crear un formulario separado para ser utilizado por AI/ para la puntuación automatizada solamente?
  • ¿Debo tener un formulario separado para la puntuación manual además del formulario AI?
  • ¿Debo crear un formulario híbrido que sea una mezcla de AI/puntuación automatizada + manual?

No hay una respuesta correcta o incorrecta. Depende de lo que quiera conseguir con AI/automatización, de la madurez de su programa de calidad, de la disponibilidad de personal/recursos y de otras consideraciones.

 

Ventajas y desventajas de cada enfoque:

  • El primer enfoque es crear un formulario separado habilitado por la AI que esté estrictamente dedicado a la puntuación automatizada que le permitirá obtener evaluaciones totalmente puntuadas por la AI y ver claramente la calidad de los agentes basándose en las puntuaciones de AI. A continuación, puede centrarse en identificar las preguntas con menor puntuación o los agentes con menor rendimiento para saber dónde/en quiénes debe invertirse el tiempo para ofrecer comentarios adicionales, formación y capacitación, entre otros.  En este caso, no se gastará casi nada de tiempo en realizar las evaluaciones de los agentes de forma manual.

Sin embargo, esta opción puede ser un poco limitante, ya que restringe su formulario a usar solo preguntas que puedan entenderse fácilmente y evaluarse por una máquina/herramienta de AI. Nota: Para más información sobre este tema, consulte la siguiente sección ("Best Practices for Building an AI-enabled Form (creación de preguntas en AI").

Si planea hacer más preguntas subjetivas en su formulario (ya sea evaluaciones emocionales/de habilidades blandas o preguntas de tipo escala/opciones de respuesta), podría considerar la posibilidad de crear un formulario separado que se utilice solo para la puntuación manual o un formulario híbrido/combinado.

  • Un segundo enfoque es disponer de un formulario manual independiente (separado de/además de un formulario de AI) que permita hacer preguntas/realizar evaluaciones sobre cuestiones más complejas que requieran un oído humano.  Sin embargo, esto llevará a tener datos separados (evaluaciones y puntuaciones) para el mismo agente/interacción. Tendrá que responder a menos preguntas manualmente (porque algunas están siendo respondidas por AI), pero es probable que siga realizando el mismo número de evaluaciones que antes, a menos que decida centrarse solo en la revisión y potencialmente en la calificación manual de las que recibieron bajas puntuaciones de AI. Se trataría de un enfoque de evaluación manual más específico, frente al que se basa en una selección aleatoria.
  • Una tercera opción es hacer un formulario híbrido/combinado en el que algunas preguntas están pensadas para ser respondidas por AI (por ejemplo, tienen asociadas palabras clave/frases de AI) y otras están pensadas para ser evaluadas manualmente por un humano. Una ventaja de este enfoque es que solo se obtiene una evaluación o una puntuación para ese agente o interacción (en vez de dos evaluaciones separadas). Sin embargo, debido a que solo algunas preguntas están habilitadas con palabras clave de la AI, la evaluación nunca puede ser calificada completamente por AI y siempre acabará en un estado de "AI Pending" (vs. "AI Scored"), que es similar a un "Draft". Para que esa evaluación "AI Pending" se convierta en una evaluación "Completada" (es decir, con una puntuación real), un humano tendrá que terminarla (es decir, las preguntas restantes deben contestarse manualmente). Esto hará que todas las evaluaciones estén en un estado "AI Pending", mientras que solo algunas (un pequeño % de sub-grupo) pueden ser actualizadas manualmente por un humano. Ofrecemos una forma de caducar o limpiar esas evaluaciones "AI Pending" después de "X" días, donde "X" es configurable, lo que ayuda a reducir el "ruido".  Esto ahorrará tiempo de evaluación al tener algunas preguntas respondidas previamente por AI, pero requiere la intervención humana para obtener datos/puntuaciones de calidad para el seguimiento/informe, entre otros elementos.

Nota: Para más información sobre la configuración de los ajustes de caducidad para AI Evaluations pendientes y/o la reducción del % de evaluaciones calificadas automáticamente, consulte el artículo relacionado aquí.

 

Los tres enfoques descritos anteriormente, así como las ventajas y los inconvenientes de cada uno de ellos que se enumeran a continuación, pueden ayudarle a decidir cuál es la mejor dirección para el programa de garantía de calidad de su organización.

 

AI Form Only

AI Form + Manual Form (formularios independientes)

Hybrid Form (AI y mezclado manual)

PROs (Ventajas)

Puntuaciones/resultados claros


Poco esfuerzo manual

Permite evaluar en base a comportamientos complejos o skills suaves.

Puede incluir preguntas y respuestas más complejas, y del tipo de habilidades blandas, en el formulario manual.


Reduce el esfuerzo manual mediante AI precalificando las preguntas "más fáciles"/binarias.

CONs (Inconvenientes)

El formulario solo puede tener preguntas y respuestas que puedan ser puntuadas fácilmente por una máquina/AI

Requiere un esfuerzo de puntuación manual además de la puntuación de AI.


Resultados en dos conjuntos de datos/puntuaciones separados para la misma interacción con el agente (puntuados manualmente y puntuados por AI).

Todas las evaluaciones resultarán en un estado pendiente de la AI (similar a un borrador manual), lo que significa que no tendrán ninguna puntuación, y un humano tendrá que terminarlas y enviarlas manualmente.

 

Mejores prácticas para la creación de un formulario habilitado por la AI (creación de preguntas AI)

  • Haga preguntas que sean fácilmente comprensibles para una máquina/AI:
    • En la medida de lo posible, evite las evaluaciones relacionadas con la emoción, como "¿mostró empatía el agente?". Será prácticamente imposible para una máquina determinar esto a menos que usted haya identificado claramente cómo suena esa emoción (empatía en este ejemplo) en términos de lo que el agente diría para demostrar esa emoción (es decir, empatía) y haya añadido esas declaraciones como palabras clave/frases AI a la(s) opción(es) de respuesta de la pregunta. Consulte abajo para obtener más consejos sobre cómo añadir opciones de respuesta.
  • Utilice respuestas "Sí"/"No" o "Verdadero"/"Falso" o "Aprobado"/"Fallido" (de tipo binario):
    • Esto le permitirá añadir palabras clave/frases de la AI a las respuestas/contestaciones para indicar si el agente dijo o no dijo algo. La puntuación AI se basa únicamente en lo que ha dicho el agente (no el cliente/la persona que llama), por lo que, al añadir las palabras clave de AI, hay que centrarse en lo que se espera que diga el agente. El sistema utiliza la "fuzzy matching" para buscar "intent", por lo que también comprobará las frases relacionadas que estén en el mismo contexto que lo especificado.
    • QM Assist se centra en la evaluación de la calidad de los agentes. Si busca una evaluación más completa de toda la interacción, incluida la parte del cliente, consulte la documentación de Talkdesk Interaction Analytics™.
    • Cuando se utilizan opciones binarias como "Yes"/"No", solo es necesario añadir palabras clave/frases AI a la opción "positiva" (es decir, "Yes") para indicar cómo sonaría esa respuesta según lo que diría el agente. La opción "negativa" (es decir, "No") puede dejarse en blanco. El sistema analizará la transcripción para ver si encuentra una coincidencia correspondiente a la respuesta "positiva" y, en caso afirmativo, se elegirá esta respuesta. Si el sistema no encuentra una coincidencia para la respuesta "positiva", entonces la respuesta "negativa" puede ser seleccionada automáticamente siempre que esté configurada con la palabra clave AI: #fallback. Esto indica que se debe elegir si no se encuentra otra respuesta para esa pregunta. La palabra clave #fallback AI no está configurada, y cuando otra opción de respuesta no coincide, entonces esta pregunta quedaría sin respuesta (AI Pending).
    • No active la opción de respuesta "N/A". El sistema no tiene forma de determinar si algo se aplica o no a una interacción o llamada concreta, ya que no tiene el mismo contexto que un humano.
  • Asigne el formulario habilitado para AI a la(s) cola(s)/ring group(s):
    • La asignación indica al sistema qué llamadas a AI se evalúan utilizando formularios AI.  Por ello, un formulario puede ser asignado a muchas colas (ring groups) pero un solo ring group solo puede pertenecer a un formulario. Tenga en cuenta que esto solo es necesario para los formularios con AI, no para los formularios de evaluación manual.
  • Evaluar llamadas con AI (puntuación automática):
    • Por favor, tenga en cuenta que para que se produzca la AI/autocalificación, la transcripción STT (Speech-to-Text) de esa grabación de la llamada debe estar disponible para realizar la evaluación de la transcripción contra el formulario con intents AI habilitados (palabras clave/frases). Esto ocurre casi en tiempo real, pero puede haber un desfase entre el momento en que tiene lugar la llamada/se realiza la grabación y el momento en que se transcribe la grabación para evaluar la llamada.

 

Realizar cambios en curso/futuros en las palabras clave de un formulario "Published"

Cuando publique un formulario en QM Assist (habilitado para AI o manual), si quiere hacer algún cambio en él, tendrá que duplicarlo para convertirlo en un borrador, luego editarlo y, posteriormente, publicar la versión nueva (desactivando la anterior). Esto incluye la realización de cambios en las palabras/frases clave de AI.

Para saber más sobre QM Assist, visite este artículo.

Volver ""
Por favor, inicie sesión para enviar una solicitud.