OLMES (Open Language Model Evaluation Standard) est un marco d'evaluacion standardisé développé par l'Allen Institute for AI. Le marco se concentre sur la reproductibilité et la cohérence dans les evaluacions de modelos de langage.
Publicado
2024
Jurisdicción
Global
Categoría
Assessment and evaluation
Acceso
Acceso público
Modelo de fiche technique pour jeu de datos (LaTeX)
Transparency and documentation • Overleaf
Divulgations de systèmes IA
Transparency and documentation • National Telecommunications and Information Administration
Jeu de donnees d'images centrees sur l'humain pour le benchmarking ethique de l'IA
Datasets and benchmarks • Nature
VerifyWise le ayuda a implementar frameworks de gobernanza de IA, hacer seguimiento del cumplimiento y gestionar riesgos en sus sistemas de IA.