Chaîne de pensée

La chaîne de pensée – Tout ce que vous devez savoir à ce sujet

La résolution de problèmes est l'une des capacités innées des humains. Depuis notre enfance, lorsque nos plus grands défis dans la vie ne consistaient pas à nous faire dévorer par une bête de proie, mais à l'époque contemporaine, où nous devions livrer rapidement quelque chose à la maison, nous avons combiné notre créativité, notre raisonnement logique et notre intelligence pour trouver des solutions aux conflits.

Aujourd’hui, alors que nous assistons à la genèse de l’IA, nous sommes confrontés à de nouveaux défis en ce qui concerne leurs capacités de prise de décision. Alors que la décennie précédente était consacrée à célébrer les possibilités et le potentiel des modèles et des applications de l’IA, cette décennie vise à aller plus loin : remettre en question la légitimité des décisions prises par ces modèles et à déduire le raisonnement qui les sous-tend.

Alors que l’intelligence artificielle explicable (XAI) gagne en importance, c’est le moment de discuter d’un concept clé dans le développement de modèles d’IA que nous appelons Incitation à la chaîne de penséeDans cet article, nous allons décoder et démystifier en détail ce que cela signifie et des termes simples.

Qu'est-ce que l'incitation à la chaîne de pensée ?

Lorsque l'esprit humain est confronté à un défi ou à un problème complexe, il essaie naturellement de le décomposer en fragments d'étapes séquentielles plus petites. Guidé par la logique, l'esprit établit des connexions et simule des scénarios de cause à effet pour élaborer la meilleure stratégie possible pour résoudre le défi.

Le processus de réplication de ceci dans un modèle ou un système d'IA est Invite de chaîne de pensée.

Comme son nom l'indique, un modèle d'IA génère une série ou une chaîne de pensées logiques (ou d'étapes) pour aborder une requête ou un conflit. Imaginez que vous donniez des instructions étape par étape à quelqu'un qui demande un itinéraire vers une destination.

Il s'agit de la technique prédominante déployée dans les modèles de raisonnement d'OpenAI. Étant donné qu'ils sont conçus pour réfléchir avant de générer une réponse, ils ont pu réussir des examens compétitifs passés par des humains.

[A également lu: Tout ce que vous devez savoir sur le LLM]

Avantages de l'incitation à la chaîne de pensée

Tout ce qui est basé sur la logique offre un avantage significatif. De même, les modèles entraînés sur des chaînes de pensée offrent non seulement précision et pertinence, mais également une gamme variée d'avantages, notamment :

Renforcée résolution de problèmes Les LLM qui utilisent la chaîne de pensée permettent de mieux comprendre les défis explicites et sous-jacents et de générer des réponses après avoir pris en compte différentes probabilités et les pires scénarios.

Atténuer hypothèses et les résultats générés à partir d'hypothèses, car les modèles appliquent une réflexion et un traitement logiques et séquentiels pour conclure plutôt que de sauter aux conclusions.

Accroissement la versatilité car les modèles n'ont pas besoin d'être formés rigoureusement sur un nouveau cas d'utilisation car ils suivent la logique et non l'objectif.

Optimisé cohésion dans les tâches impliquant des réponses à plusieurs volets/plusieurs parties. 

Anatomie du fonctionnement de la technique de stimulation par chaîne de pensée

Si vous connaissez l'architecture logicielle monolithique, vous savez que l'ensemble de l'application logicielle est développé comme une seule unité cohérente. La simplification d'une tâche aussi complexe est arrivée avec la méthode d'architecture des microservices qui impliquait la décomposition du logiciel en services indépendants. Cela a permis un développement plus rapide des produits et une fonctionnalité transparente.

Invite CoT dans l'IA Le processus est similaire : les LLM sont guidés à travers une série de processus séquentiels de raisonnement pour générer une réponse. Cela se fait par :

  • Instructions explicites, où les modèles reçoivent directement pour instruction d'aborder un problème de manière séquentielle via des commandes simples.
  • L'enseignement implicite est plus subtil et nuancé dans son approche. Dans ce cas, un modèle est amené à suivre la logique d'une tâche similaire et exploite ses capacités d'inférence et de compréhension pour reproduire la logique des problèmes présentés.
  • Exemples démonstratifs, où un modèle exposerait un raisonnement étape par étape et générerait des informations supplémentaires pour résoudre un problème.

3 exemples concrets où l'invite CoT est utilisée

Modèles de décision financière

Modèles de décision financière

CoT multimodal dans les robots

Lit bébé multimodal en robots

Service de santé

Service de santé

Dans ce secteur très volatil, les conseils CoT peuvent être utilisés pour comprendre la trajectoire financière potentielle d'une entreprise, effectuer des évaluations des risques des demandeurs de crédit, etc.Les chatbots développés et déployés pour les entreprises nécessitent des fonctionnalités de niche. Ils doivent démontrer leur capacité à comprendre différents formats d'entrées. L'invite CoT fonctionne mieux dans de tels cas, où les bots doivent combiner des invites textuelles et visuelles pour générer des réponses aux requêtes.Du diagnostic des patients à partir des données de santé à la génération de plans de traitement personnalisés pour les patients, l'invite CoT peut compléter les objectifs de santé des cliniques et des hôpitaux.

Exemple

Requête client : J'ai remarqué une transaction sur mon compte que je ne reconnais pas, ma carte de débit a été perdue et je souhaite configurer des alertes pour les transactions de mon compte. Pouvez-vous m'aider à résoudre ces problèmes ?

Étape 1 : Identifier et catégoriser les problèmes

  • Transaction non reconnue.
  • Carte de débit perdue.
  • Configuration des alertes de transaction.

Étape 2 : Traitez la transaction non reconnue

Demandez des détails : Pourriez-vous fournir la date et le montant de la transaction ?

  • Branche 1 : Si des détails sont fournis :
    • Vérifiez la transaction. Si elle est frauduleuse, demandez au client s'il souhaite la contester.
  • Branche 2 : Si aucun détail :
    • Proposer de fournir une liste des transactions récentes.

Étape 3 : Adressez-vous à la carte de débit perdue

Geler la carte : Il est recommandé de procéder à une congélation immédiate.

  • Branche 1 : Si le client accepte :
    • Gelez la carte et demandez-leur s'ils veulent un remplacement. Confirmez l'adresse de livraison.
  • Branche 2 : Si le client refuse :
    • Conseiller de surveiller le compte pour détecter les transactions non autorisées.

Étape 4 : Configurer les alertes de transaction

Choisissez la méthode d'alerte : SMS, email ou les deux ?

  • Branche 1 : Si un client choisit :
    • Définissez des alertes pour les transactions supérieures à un montant spécifié. Demandez le montant.
  • Branche 2 : En cas de doute :
    • Suggérez un montant par défaut (par exemple, 50 $) et confirmez.

Étape 5 : Fournir un résumé et les prochaines étapes

  • Enquête sur la transaction non reconnue.
  • Gel de la carte de débit et éventuellement émission d'un remplacement.
  • Configuration des alertes de transaction selon les demandes.

Justification:

Ce processus répond efficacement à de multiples requêtes clients grâce à des étapes claires et des branches de décision, garantissant des solutions complètes.

Limites de l'incitation CoT

Limites de l'incitation au lit

La chaîne de pensée est certes efficace, mais elle dépend également du cas d'utilisation auquel elle est appliquée et de plusieurs autres facteurs. Elle présente des défis spécifiques Invite CoT en IA qui empêchent les parties prenantes d'exploiter pleinement son potentiel. Examinons les goulots d'étranglement courants :

Des tâches simples trop compliquées

Bien que les modèles de réponse directe fonctionnent mieux pour les tâches complexes, ils peuvent compliquer les tâches simples et générer des réponses erronées. Pour les tâches qui ne nécessitent aucun raisonnement, les modèles de réponse directe fonctionnent mieux.

Augmentation de la charge de calcul

Le traitement des invites CoT nécessite une charge de calcul importante et si la technique est déployée sur des modèles plus petits construits avec des capacités de traitement limitées, elle peut les submerger. Les conséquences de tels déploiements peuvent inclure des temps de réponse plus lents, une faible efficacité, des incohérences, etc.

Qualité de l'ingénierie rapide de l'IA

Invite CoT dans l'IA fonctionne sur la base du principe (ou du présupposé) qu'une invite spécifique est bien articulée, structurée et claire. Si une invite ne présente pas ces facteurs, l'invite CoT perd sa capacité à saisir l'exigence, ce qui entraîne la génération d'étapes séquentielles non pertinentes et, en fin de compte, de réponses.

Capacités à grande échelle réduites

Les parties prenantes peuvent rencontrer des difficultés dans leurs modèles s'ils doivent exploiter la chaîne de pensée pour des volumes massifs d'ensembles de données ou des problèmes complexes. Pour les tâches impliquant des étapes de raisonnement plus importantes, la technique peut ralentir le temps de réponse, la rendant inadaptée aux applications ou aux cas d'utilisation qui nécessitent une génération de réponses en temps réel.

L'invite CoT est une technique phénoménale pour optimiser les performances de grands modèles linguistiques. Si ces lacunes peuvent être abordées et résolues grâce à des techniques d'optimisation ou des solutions de contournement, elles peuvent donner des résultats incroyables. À mesure que la technologie progresse, il sera intéressant de voir comment l'incitation à la chaîne de pensée évolue et devient plus simple mais aussi plus spécialisée.

Partager