Verifica si un reclamo está respaldado por una fuente primaria, una página oficial actual o una fuente secundaria reputable antes de que ese reclamo se convierta en copy publicada. Esta habilidad es esencial para directorios de herramientas de IA, listings de servidores MCP y resúmenes de noticias donde precisión y confiabilidad directamente afectan las decisiones de los lectores y credibilidad SEO.
Casos de uso
- Añadiendo una nueva herramienta de IA a un directorio y verificando sus precios, capacidades y fecha de lanzamiento contra la fuente oficial
- Revisando un listing de servidor MCP donde los reclamos del maintainer sobre features o compatibilidad necesitan verificación
- Publicando un resumen de noticia donde un reclamo sobre capacidades de un modelo o adquisición de una empresa necesita una fuente primaria
- Actualizando un entry existente cuando un vendor ha cambiado sus precios o deprecado una feature
- Antes de publicar una comparación entre dos herramientas donde las capacidades declaradas necesitan ser verificadas individualmente
Funciones principales
- Localiza la fuente primaria para el reclamo: típicamente la página oficial del producto, el README de GitHub o press release de los canales propios del vendor
- Captura la fecha de la fuente y la entidad que la posee para establecer moneda y autoridad
- Contrasta la fuente primaria contra una fuente secundaria reputable adicional para confirmar que el reclamo no está disputas o desactualizado
- Flag cualquier reclamo que no pueda ser verificado con una fuente primaria como [unverified] en lugar de suavizarlo o removerlo silenciosamente
- Documenta las fuentes usadas para cada reclamo mayor en los metadatos del entry para que la trilha de verificación sea auditable
Relacionados
Relacionados
3 Entradas indexadas
Brainstorming before build
Explora objetivos, restricciones, riesgos y opciones de diseño antes de comprometerse con un camino de implementación específico. Esta técnica es más valiosa cuando se enfrentan decisiones de producto o UX donde la elección equivocada es costosa de revertir: nuevas funcionalidades con valor de usuario incierto, pivotes arquitectónicos o dependencias cruzadas donde cada equipo tiene un modelo mental diferente del problema.
Prompt engineering
Craftea prompts con framing de tarea explícito, definición de rol, restricciones de output, requisitos de citación y few-shot examples para que las respuestas del modelo sean consistentes, fundamentadas en evidencia y accionables para tareas downstream. Prompt engineering reduce la variabilidad y riesgo de alucinación que viene de prompts sub-especificados.
Fine-tuning preparation
Curate, deduplica y formatea datasets de training para fine-tuning para que el modelo resultante realmente mejore en comportamientos objetivo en lugar de aprender ruido. Fine-tuning preparation cubre filtrado de calidad de dataset, consistencia de formato de output, splits de train/test y evitar common pitfalls como data leakage que invalidan resultados de fine-tuning.