ChatGPT 4 d'après OpenAI va avoir des réponses correctes mais sans avoir de sens et être incorrectes.C'est sous le nom de "hallucination" qu'il y a ce comportement habituel dans les grands modèles de langage.c'est avec le nom de la loi de Goodhart qu'il y a un exemple de pathologie,les performances sont diminuées et sur-optimisées,quand il y a une surveillance humaine,ChatGPT 4 a un modèle de récompense.
Aucun commentaire:
Enregistrer un commentaire