GitHub Launches Rigorous : Une Suite d'Outils pour Optimiser la Publication Scientifique avec l'IA
GitHub - robertjakob/rigorous : Un ensemble complet d’outils pour une recherche plus transparente, abordable et efficace Rigorous - Analyse de manuscrits scientifiques par IA Une version cloud de l'outil d'évaluation par les pairs basé sur l'IA est désormais disponible sur https://www.rigorous.company/. Il suffit d'uploader votre manuscrit, de fournir des informations sur la revue cible et les axes d'évaluation souhaités, et vous recevrez un rapport détaillé au format PDF par email dans les 1 à 2 jours ouvrables. Cette version cloud est actuellement proposée gratuitement pour des tests. Cet ensemble d'outils vise à rendre la publication scientifique plus transparente, moins coûteuse et plus rapide, tout en assurant une évaluation rigoureuse par les pairs et par l'IA. Structure du Projet Agent1_Peer_Review : - Description : Un système d'évaluation par les pairs avancé, doté d'agents spécialisés pour une analyse approfondie des manuscrits, un retour d'information détaillé et la génération de rapports professionnels au format PDF. - État actuel : Prêt à être utilisé. - Fonctionnalités : - Analyse complète du manuscrit avec des agents spécialisés. - Feedback détaillé sur chaque section, la rigueur scientifique et la qualité rédactionnelle. - Sortie JSON contenant des recommandations concrètes. - Génération de rapports PDF (voir ci-dessous). Agent2_Outlet_Fit : - Description : Un outil en développement pour évaluer la compatibilité d'un manuscrit avec des revues ou des conférences spécifiques. - État actuel : En développement. - Fonctionnalités prévues : - Mise en œuvre des fonctionnalités principales. - Intégration en cours avec Agent1_Peer_Review. - Tests et validations en cours. Génération du Rapport PDF Le projet inclut un générateur de rapports PDF qui crée un rapport d'évaluation par les pairs Professionnel basé sur les sorties des agents d'évaluation. Comment générer le rapport PDF Installation des dépendances : Assurez-vous que les dépendances nécessaires sont installées : reportlab pillow D'autres dépendances sont listées dans le fichier requirements.txt de chaque outil. Mise à jour des fichiers : Vérifiez que les fichiers suivants sont présents et à jour : executive_summary.json (résumé exécutif et scores globaux) quality_control_results.json (résultats détaillés par section, rigueur et qualité rédactionnelle) logo.png (logo pour l'en-tête du rapport) Lancement du script de génération PDF : Exécutez le script du générateur de PDF : python python Agent1_Peer_Review/pdf_generator.py Sauvegarde du rapport PDF généré : Le rapport PDF généré sera enregistré à : Agent1_Peer_Review/results/review_report.pdf Caractéristiques du Rapport PDF Page de garde incluant le logo, le titre du manuscrit et les scores globaux. Pages de résumé exécutif et d'analyses détaillées pour tous les items d'évaluation (S1-S10, R1-R7, W1-W7). Tables visuellement attrayantes pour les scores et les suggestions. Mise en page professionnelle, codage couleur et formatage cohérent. Pour plus de détails, consultez les commentaires dans le fichier Agent1_Peer_Review/pdf_generator.py. Exigences Techniques Langage : Python 3.7+ Clé API OpenAI : Nécessaire pour l'utilisation de certaines fonctionnalités. Manuscrits PDF : Fichiers à analyser. Dépendances : Liste dans le fichier requirements.txt de chaque outil. Licence Ce projet est sous licence MIT. Pour plus d'informations, veuillez consulter le fichier LICENSE. Contribution Les contributions sont bienvenues ! N'hésitez pas à soumettre une Pull Request.