Command Palette
Search for a command to run...
FirstAidQA : un jeu de données synthétique pour les premiers secours et la réponse aux urgences dans des environnements à faible connectivité
FirstAidQA : un jeu de données synthétique pour les premiers secours et la réponse aux urgences dans des environnements à faible connectivité
Saiyma Sittul Muna Rezwan Islam Salvi Mushfiqur Rahman Mushfique Ajwad Abrar
Résumé
Dans les situations d’urgence, chaque seconde compte. Le déploiement des grands modèles linguistiques (LLM) dans des environnements sensibles au temps et à faible ou absence de connectivité reste limité. Les modèles actuels sont très exigeants en ressources computationnelles, ce qui les rend inadaptés aux appareils de bas niveau souvent utilisés par les secouristes ou les civils. Un obstacle majeur à la conception de solutions légères et spécifiques à un domaine réside dans le manque de jeux de données de haute qualité dédiés à la premiers secours et à la réponse aux urgences. Pour combler cet écart, nous introduisons FirstAidQA, un jeu de données synthétique comprenant 5 500 paires question-réponse de haute qualité couvrant une large variété de scénarios de premiers secours et de réponse aux urgences. Ce jeu de données a été généré à l’aide d’un grand modèle linguistique, ChatGPT-4o-mini, via une méthode d’apprentissage contextuel basée sur des prompts, en s’appuyant sur des textes extraits du Vital First Aid Book (2019). Des étapes de prétraitement ont été appliquées, notamment le nettoyage du texte, le découpage contextuel et le filtrage, suivies d’une validation humaine afin d’assurer l’exactitude, la sécurité et la pertinence pratique des paires question-réponse. FirstAidQA est conçu pour soutenir l’ajustement par instruction (instruction-tuning) et le fine-tuning des grands modèles linguistiques (LLM) et des petits modèles linguistiques (SLM), permettant ainsi le développement de systèmes plus rapides, plus fiables et capables de fonctionner hors ligne dans des contextes d’urgence. Nous mettons publiquement ce jeu de données à disposition afin d’encourager la recherche sur les applications d’intelligence artificielle critiques pour la sécurité et contraintes en ressources dans le domaine du premiers secours et de la réponse aux urgences. Le jeu de données est disponible sur Hugging Face à l’adresse suivante : https://huggingface.co/datasets/i-am-mushfiq/FirstAidQA.
One-sentence Summary
Muna et al. from Islamic University of Technology introduce FirstAidQA, a synthetic dataset of 5,500 high-quality first aid question-answer pairs generated via ChatGPT-4o-mini using prompt-based in-context learning and human validation, addressing the scarcity of domain-specific emergency response data to train lightweight LLMs and SLMs for offline-capable systems in time-sensitive, low-connectivity scenarios.
Key Contributions
- Identifies the critical absence of domain-specific datasets for first aid as a barrier to deploying lightweight AI in low-connectivity emergency scenarios and introduces FirstAidQA, a synthetic dataset of 5,500 question-answer pairs generated via ChatGPT-4o-mini using in-context learning from the Vital First Aid Book with rigorous preprocessing and human validation.
- Validates dataset safety and accuracy through expert evaluation of 200 randomly sampled pairs by three medical professionals, assessing criteria including safety completeness and relevance while documenting flagged examples for cautious handling as evidenced in the provided evaluation tables.
- Enables offline-capable emergency response systems by structuring FirstAidQA specifically for fine-tuning small language models, building on methodologies proven effective in prior resource-constrained medical applications like Cahlen's offline first-aid systems.
Introduction
The authors address a critical gap in emergency response tools for low-connectivity regions where immediate, accurate first-aid guidance can save lives but internet access is unreliable. Prior solutions like FAQ-based chatbots or commercial voice assistants often omit evidence-based steps or provide incomplete instructions, while existing medical QA datasets focus on clinical records or general health information—not actionable, step-by-step first aid for laypeople. Synthetic datasets like Self-Instruct or Offline Practical Skills QA demonstrate LLMs' potential for scalable data generation but lack first-aid specificity. The authors' main contribution is FirstAidQA, a purpose-built synthetic dataset generated to deliver reliable, guideline-compliant first-aid instructions offline, overcoming the absence of dedicated resources for this high-stakes domain.
Dataset
- The authors introduce FirstAidQA, a synthetic dataset comprising 5,500 question-answer pairs focused on first aid and emergency response scenarios. It is generated using ChatGPT-4o-mini via prompt-based in-context learning, with source material exclusively drawn from the certified Vital First Aid Book (2019).
- Key category details include:
- Total size: 5,500 QA pairs spanning 15 emergency categories (e.g., CPR, burns, fractures, head injuries, bleeding management).
- Source: Text chunks from the Vital First Aid Book, manually segmented to preserve context (e.g., casualty movement protocols or burn treatment steps).
- Filtering: Irrelevant theoretical content was excluded; only text applicable to real-world emergencies was retained for QA generation.
- Safety rules: Prompts explicitly constrained the LLM to generate answers strictly from provided context chunks, with diversified topic sampling to reduce bias.
- The dataset supports instruction-tuning and fine-tuning of lightweight LLMs/SLMs for offline deployment in low-connectivity environments. The authors use the full dataset (without specified train/validation splits) to train models requiring rapid, reliable emergency guidance, emphasizing practical procedural knowledge over clinical diagnostics.
- Processing includes contextual chunking of source text, structured JSON-formatted output generation (20 QA pairs per prompt batch), human validation for accuracy/safety, and iterative refinement to ensure diversity (e.g., adding pediatric/elderly scenarios). No cropping strategy is applied; instead, context-preserving chunks maintain situational relevance for edge-device deployment.
Experiment
- Expert evaluation of 200 randomly sampled QA pairs by three medical professionals validated clarity, relevance, specificity and completeness, and safety and accuracy, with mean ratings documented in Table 2
- Tables 3 and 4 highlight specific QA pairs containing potentially unsafe instructions that require cautious handling during dataset utilization
The authors use expert evaluation to assess 200 QA pairs across four criteria, with scores averaged across three medical professionals. Results show the highest mean score for Relevance (4.7) and the lowest for Safety & Accuracy (3.7), indicating that while questions are well-targeted and clear, some answers may contain medically inaccurate or unsafe content.
