HyperAI

Sauen Wissen, Wann Sie Gebären Müssen. Dieses Mal Nutzt NNU NVIDIA Edge AI Jetson

vor 2 Jahren
Information
Bairong Li
特色图像


Inhalte im Überblick:
Für die Schweinezucht ist die Abferkelung der Sauen ein wichtiges Bindeglied. Daher sind die Verbesserung der Überlebensrate der Ferkel und die Gewährleistung der Sicherheit des Geburtsprozesses der Sauen zu wichtigen Themen geworden. Bestehende KI-Überwachungsmethoden haben Probleme mit hohen Gerätekosten und instabiler Informationsübertragung. Forscher der Nanjing Agricultural University nutzten eine leichtgewichtige Deep-Learning-Methode, um eine Frühwarnung und eine effektive Überwachung des Sauenlieferprozesses zu ermöglichen und so die Kosten zu senken und gleichzeitig die Überwachungsgenauigkeit zu verbessern.

Schlüsselwörter:Embedded-Entwicklungsboard Leichtgewicht Deep Learning

Dieser Artikel wurde zuerst auf der öffentlichen HyperAI WeChat-Plattform veröffentlicht~

Die Schweinezucht meines Landes ist weltweit führend, doch die Branche als Ganzes hat immer noch mit dem Problem einer schlechten Zucht zu kämpfen. Für viele große Schweinefarmen ist es das Wichtigste, die Kosten zu senken und gleichzeitig die Überlebensrate der Ferkel zu erhöhen. Traditionelle Methoden beruhen auf menschlicher Überwachung, die schwierig und höchst subjektiv ist.Angesichts einer Reihe von Problemen wie Geburtswehen bei der Sauengeburt und Erstickungsgefahr bei Ferkeln ist es schwierig, rechtzeitig und wirksam dagegen vorzugehen.

In den letzten Jahren hat sich die KI-Überwachung zu einem wichtigen Mittel zur Lösung dieses Problems entwickelt. Das Prinzip besteht meist darin, Deep Learning auf Basis von Cloud Computing zur Überwachung einzusetzen.Diese Methode stellt jedoch hohe Anforderungen an die Ausrüstung und die Netzwerkbandbreite und ist äußerst restriktiv und instabil.

Laut dem China Pig Farming Network zeigen Sauen aufgrund der Wirkung von Oxytocin oder Prolaktin innerhalb von 12 bis 24 Stunden vor der Geburt häufig Nestbauverhalten und ändern ihre Haltung häufiger.Auf dieser Grundlage entwickelte das Versuchsteam ein Modell zur Überwachung der Körperhaltung von Sauen und der Geburt von Ferkeln mithilfe des YOLOv5-Algorithmus und setzte es auf der NVIDIA Jetson Nano-Entwicklungsplatine ein.Dadurch kann der Prozess in komplexen Szenarien überwacht und analysiert werden, wobei die Merkmale niedrige Kosten, geringe Latenz, hohe Effizienz und einfache Implementierung sind.

Diese Errungenschaft wurde im Januar 2023 in der Zeitschrift „Sensors“ unter dem Titel „Sow Farrowing Early Warning and Supervision for Embedded Board Implementations“ veröffentlicht.

Der Artikel wurde in der Zeitschrift Sensors veröffentlicht.

Papieradresse:

https://www.mdpi.com/1424-8220/23/2/727

Experimentübersicht 

Daten und Verarbeitung 

Die Videodaten stammen von zwei Farmen in Suqian und Jingjiang, Jiangsu.Es wurden Videodaten von 35 Sauen während der Geburt gesammelt.Unter anderem wurden die Daten von elf Sauen auf der Schweinefarm Jingjiang vom 27. April bis 13. Mai 2017 und die Daten von 24 Sauen auf der Schweinefarm Suqian vom 9. bis 15. Juni 2020 aufgezeichnet. Die Sauen wurden nach dem Zufallsprinzip in Abferkelbuchten einer bestimmten Größe (2,2 m x 1,8 m) untergebracht und die Videodaten wurden 24 Stunden lang kontinuierlich von Kameras aufgezeichnet.

Der Ablauf ist wie folgt:

Abbildung 1: Flussdiagramm der Videoaufnahme

Als nächstes werden die Daten vorverarbeitet. Das Versuchsteam filterte zunächst Videos heraus, die einen Tag vor und nach der Geburt der Sauen aufgenommen wurden, und verarbeitete sie dann mit Python und OpenCV zu Bilddaten.Mithilfe der Kennzeichnungssoftware wurden die Daten zur Haltung der Sauen und der neugeborenen Ferkel in den 12.450 aufgenommenen Bildern manuell kommentiert und verbessert., und 32.541 Bilder werden erhalten, um den Datensatz zu bilden.

Datenerweiterung (Datenerweiterung): Dies bezieht sich auf Zuschneiden, Verschieben, Drehen, Spiegeln, Ändern der Helligkeit, Hinzufügen von Rauschen und Scheren.)

Dieser Datensatz ist in 5 Kategorien unterteilt: 4 Sauenhaltungen (Seitenlage, Brustlage, Stehen und Sitzen) und Ferkel,Das Verhältnis von Trainingssatz, Validierungssatz und Testsatz beträgt 7:1:2.

Abbildung 2: Effekt nach Datenverbesserung

Experimentelles Modell 

Das Versuchsteam verwendete YOLOv5s-6.0, um ein Modell zur Erkennung der Körperhaltung von Sauen und Ferkeln zu erstellen.Dieses Modell besteht aus 4 Teilen:

Eingang:Bildeingabe

Rückgrat:Extraktion von Bildmerkmalen von Sauen und Ferkeln

Nacken:Fusion von Bildmerkmalen

Vorhersage:Vorhersage (aufgrund des großen Größenunterschieds zwischen Sauen und Ferkeln verwendet dieser Teil drei verschiedene Merkmalskarten, um große, mittlere und kleine Ziele zu erkennen)

Abbildung 3: Netzwerkstruktur des YOLOv5s-Algorithmus

A:Details zum CBS-Modul

B:Details zum Res-Unit-Modul

C:Details zu den Modulen CSP1_X und CSP2_X

D:Detailstruktur des SPPF-Moduls

Das Experimentalteam setzte den Algorithmus auf der eingebetteten KI-Computerplattform der Jetson Nano-Serie von NVIDIA ein und nutzte TensorRT zur Optimierung des Modells.Dadurch wird beim nachfolgenden Betrieb auf der eingebetteten Entwicklungsplatine ein höherer Durchsatz und eine geringere Latenz erreicht, während gleichzeitig mögliche Datenlecks während der Netzwerkübertragung vermieden werden.

Abbildung 4: TensorRT-Workflow

Die spezifischen Parameter sind wie folgt:

Modell-Trainingsumgebung:Ubuntu 18.04-Betriebssystem, Intel(R) Xeon(R) Gold 5118 @ 2,30 GHz CPU, NVIDIA Quadro P4000 GPU, 8 GB Videospeicher, 64 GB Speicher, 2-TB-Festplatte, PyTorch 1.7.1 und Torchvision 0.8.2 Deep-Learning-Frameworks, CUDA Version 10.1.

Modellbereitstellungsumgebung:ARM-angepasstes Ubuntu 16.04-Betriebssystem, 4-Core ARM A57 @ 1,43 GHz CPU, 128-Core Maxwell-Architektur GPU, 4 GB Speicher, JetPack 4.5, Cuda10.2.89, Python 3.6, TensorRT 7.1, Opencv 4.1.1, CMake 3.21.2 Deep-Learning-Umgebung.

Modellparameter:(1) Für das YOLOv5-Training legen Sie Epoche 300, Lernrate 0,0001 und Batchgröße 16 fest. (2) Für das für TensorRT optimierte Netzwerk beträgt die Batchgröße 1 und die Präzision fp16.

Schließlich verwendete das Versuchsteam Indikatoren wie Präzision, Rückrufrate und Erkennungsgeschwindigkeit, um die Leistung verschiedener Algorithmen zu bewerten.

In,Mithilfe von Präzision und Rückruf lässt sich die Fähigkeit eines Algorithmus messen, alle Kategorien von Daten zu erkennen., einschließlich 4 Sauenpositionen (Seitenlage, Brustlage, Stehen und Sitzen) und neugeborene Ferkel;Anhand der Modellgröße und der Erkennungsgeschwindigkeit wird gemessen, ob der Algorithmus für den Einsatz auf eingebetteten Geräten geeignet ist.

Die Berechnungsformel lautet wie folgt:

TP:Die Anzahl der korrekten Vorhersagen für positive Proben

FP:Die Anzahl der falschen Vorhersagen für positive Proben

FN:Die Anzahl der falschen Vorhersagen für negative Stichproben

Experimentelle Ergebnisse 

Modellleistung 

Das experimentelle Team fand heraus, dass in den 300 Epochen des ModelltrainingsMit zunehmendem Iterationszyklus zeigen Präzision und Rückrufrate im Allgemeinen einen Aufwärtstrend.Gleichzeitig kann festgestellt werden, dassDie Präzision und der Rückruf des YOLOv5s-Modells sind nach der Datenerweiterung konstant hoch.

Abbildung 5: Präzision und Rückruf des YOLOv5s-Erkennungsmodells

A:Präzision

B:Abrufen

Orange Linie:Präzision/Rückruf des YOLOv5s-Modells nach Datenerweiterung

Blaue Linie:Präzision/Recall des YOLOv5s-Modells ohne Datenerweiterung

In den Experimenten wird die mittlere durchschnittliche Präzision (mAP) verwendet, um die Fähigkeit des Algorithmus zu bewerten, alle Kategorien zu erkennen.Während der Evaluierung des YOLOv5s-Algorithmus verglich das Experimentalteam auch die Leistung der Algorithmen YOLOX-nano und NanoDet-m. Die Ergebnisse zeigten, dass die Erkennungsgeschwindigkeit von YOLOX-nano und NanoDet-m etwas schneller war als die von YOLOv5s, die Genauigkeit jedoch geringer war und es Fälle von Fehlerkennungen und falschen Erkennungen von Ferkeln gab. Der YOLOv5s-Algorithmus erkennt Objekte unterschiedlicher Größe gut und die durchschnittliche Erkennungsgeschwindigkeit des Modells bei Bildern, lokalen Videos und Kameras ist mit den beiden anderen vergleichbar.Darüber hinaus weist das datenerweiterte YOLOv5s-Modell die höchste Präzision und den höchsten Rückruf auf, die 0,982 bzw. 0,937 betragen.

Tabelle 1: Bewertungsindikatoren verschiedener Algorithmen zur Sauenhaltungs- und Ferkelerkennung

Um die Generalisierungsfähigkeit und Entstörungsfähigkeit des Modells zu testen, behielt das Versuchsteam beim Trainieren des Modells eine der Sauen als „neue Probe“ und wählte 410 Bilder mit unterschiedlich komplexen Szenen aus, um das Modell zu testen. Die Ergebnisse zeigen, dassEine Fehlerkennung oder falsche Erkennung der Haltung der Sau wird hauptsächlich durch Veränderungen der Beleuchtung verursacht. Ferkel werden hauptsächlich durch das Einschalten von Wärmelampen beeinträchtigt, d. h. Ferkel sind bei starkem Licht schwer zu identifizieren; Der Zeitpunkt der Geburt des ersten Ferkels und Szenen mit Wärmelampen unterschiedlicher Farben haben wenig Einfluss auf die Erkennungsfähigkeit des Modells.

Tabelle 2: Testergebnisse des YOLOv5s-Modells in einer komplexen Umgebung

Zweite Spalte von links:Die Fehlerkennungsrate der Sauenhaltung ist unter komplexen Lichtbedingungen am höchsten

Linke drei Spalten:Die Fehlerkennungsrate der Sauenhaltung ist unter komplexen Lichtverhältnissen und bei eingeschalteten Wärmelampen in der Nacht höher

Linke vier Spalten:Bei gemischten Lichtverhältnissen und nachts, wenn Wärmelampen eingeschaltet waren, war die Anzahl der falsch positiven Ergebnisse höher.

Linke fünf Spalten:Die Zahl der übersehenen Ferkel war nachts höher, wenn die Wärmelampen eingeschaltet waren

Abbildung 6: Testergebnisse für komplexe Umgebungsbilder

A:Unter komplexer Beleuchtung 

B:Erstes Ferkel geboren 

C:Verschiedene Farben von Wärmelampen 

D:Wärmelampe nachts eingeschaltet

Vor und nach der Bereitstellung 

Nachdem das Versuchsteam das Modell auf NVIDIA Jetson Nano bereitgestellt hatte, konnten sie die Körperhaltung von Sauen und Ferkeln genau erkennen. Nach dem Vergleich der Testergebnisse stellten wir fest, dassObwohl das Modell nach der Bereitstellung auf NVIDIA Jetson Nano einen leichten Genauigkeitsverlust aufwies, erhöhte sich seine Geschwindigkeit um mehr als das Achtfache.

Tabelle 3: Vergleich der Modelltestergebnisse

Linke Spalte:Modellformat

Zweite Spalte von links:Für die Vergleichstests wurde die Modellbereitstellungsplattform Quadro P4000 verwendet.

Die GPU-Auslastung auf der eingebetteten Entwicklungsplatine schränkt die praktische Anwendung dieses Modells ein. Die folgende Grafik zeigt die GPU-Auslastung des Modells beim Erkennen von Objekten in Bildern und Videos auf einer eingebetteten Entwicklungsplatine. Da der Videostream dekodiert werden muss, ist die GPU-Auslastungsrate beim Erkennen von Videos höher als beim Erkennen von Bildern, dies hat jedoch keinen Einfluss auf die Leistung des Modells.Die Testergebnisse zeigen, dass das Modell der Studie auf unterschiedliche Produktionsszenarien anwendbar ist.

Abbildung 7: GPU-Auslastung während der Erkennung

(A)  GPU-Auslastung bei der Bilderkennung

(B)  GPU-Auslastung bei der Videoerkennung

Testergebnisse 

Das Versuchsteam testete und analysierte die Daten von 22 Sauen.Die durchschnittliche Häufigkeit von Haltungsänderungen bei Sauen von 48 Stunden vor dem Abferkeln bis 24 Stunden nach dem Abferkeln wurde ermittelt.Basierend auf der Häufigkeit der Änderungen (wie in der Abbildung unten dargestellt) fasste das Team die Frühwarnstrategie des Modells wie folgt zusammen:

1. Ein Alarm wird ausgegeben, wenn die Haltungswechselhäufigkeit die Obergrenze (17,5 Mal/Stunde) überschreitet oder die Untergrenze (10 Mal/Stunde) unterschreitet.

2. Um den Einfluss der täglichen Aktivitäten der Sau auf die Warnung zu reduzieren, muss die Ober- oder Untergrenze mehr als 5 Stunden betragen.

Tests an den Proben zeigten, dassDas Modell konnte 5 Stunden vor Beginn des Abferkelns einen Alarm auslösen, wobei der Fehler zwischen der Warnzeit und der tatsächlichen Abferkelzeit 1,02 Stunden betrug.

(A)  Durchschnittlicher Bereich der Haltungsübergangsrate

(B)  Durchschnittliche Haltungswechselhäufigkeit

48 Stunden bis 24 Stunden vor der Lieferung,Während dieser Zeit sind die Aktivitäten der Sauen normal

24 Stunden bis 1 Stunde vor der Lieferung,Die Häufigkeit der Haltungsänderungen nimmt allmählich zu und dann allmählich ab

1 Stunde bis 24 Stunden nach der Lieferung,Die Häufigkeit der Haltungsübergänge liegt nahe 0 und steigt dann leicht an

Wenn das erste neugeborene Ferkel erkannt wird, wird der Abferkelalarm mit der Anzeige „Abferkeln gestartet! Startzeit: XXX“ ausgelöst. Darüber hinaus können die blinkenden LED-Leuchten den Züchtern dabei helfen, kalbende Sauen schnell zu lokalisieren und festzustellen, ob ein manuelles Eingreifen erforderlich ist.

Bei einer zu hohen Erkennungsrate kommt es jedoch häufig zu einer Fehlerkennung der Ferkel. Um eine Echtzeiterkennung zu erreichen und Fehlalarme zu reduzieren, hat das experimentelle Team „Drei aufeinanderfolgende Tests“.Erst wenn dreimal hintereinander neugeborene Ferkel erkannt werden, können diese als Ferkel gewertet werden.Die Anzahl der falsch positiven Ergebnisse beträgt bei dieser Methode das 1,59-Fache, während sie bei der herkömmlichen Einzelerkennungsregel das 9,55-Fache beträgt. Die Anzahl der Fehlalarme sank deutlich und die durchschnittliche Gesamtgenauigkeit lag bei 92,9%.

KI-Schweinezucht: eine neue Ära der intelligenten Landwirtschaft

Als eines der weltweit größten Schweinezuchtländer belief sich die jährliche Schweineproduktion meines Landes zwischen 2015 und 2018 auf etwa 700 Millionen Tiere. In den letzten Jahren schwankte die Zahl der lebenden Schweine und die Zahl der geschlachteten Schweine jedoch aufgrund der Auswirkungen der Schweinepest und anderer Krankheiten weiterhin stark. Laut veröffentlichten BranchenforschungsdatenIn den letzten Jahren ist der Anteil der einzelnen Schweinehalter kontinuierlich zurückgegangen, während der Umfang der Produktion weiter zunahm, was den Einsatz effizienterer und intensiverer Zuchttechnologien in der Schweinezuchtindustrie erforderlich macht.

Im Land gibt es bereits zuverlässige Produkte für die künstliche Besamung von Schweinen. Alibaba Cloud hat zusammen mit Aibo Machinery und Qishuo Technology eine KI-Lösung für die Schweinezucht auf den Markt gebracht, um den Anforderungen unterschiedlicher Szenarien gerecht zu werden. Die intelligente Zuchtlösung von JD Agriculture and Animal Husbandry basiert auf KI, dem Internet der Dinge und anderen Technologien und hat „Gesichtserkennung bei Schweinen und vollständige Rückverfolgbarkeit der Kette“ erreicht. Das durch KI ermöglichte intelligentere und ausgefeiltere Landwirtschaftsmodell wird schrittweise gefördert.

Allerdings ist die Förderung der künstlichen Besamung von Schweinen noch immer mit dringenden Problemen wie hohen Kosten und einem komplexen Betrieb konfrontiert.Es ist wahrscheinlich noch ein langer Weg, bis mehr Schweinefarmen auf künstliche Intelligenz umsteigen können.

Dieser Artikel wurde zuerst auf der öffentlichen HyperAI WeChat-Plattform veröffentlicht~

Referenzlinks:

[1]https://www.163.com/dy/article/HCSQN810055360T7.html

[2]https://xueshu.baidu.com/usercenter/paper/show

[3]https://www.aliyun.com/solution/govcloud/ai-pig

[4]http://www.dekanggroup.com/index/news/detail/id/182.html

[5]https://www.thepaper.cn/newsDetail_forward_3695180

[6]https://reurl.cc/mDKyEM

[7] Ding Qian, Liu Longshen, Chen Jia, Tai Meng, Shen Mingxia. Zielerkennung von Saugferkeln basierend auf Jetson Nano[J/OL]. Transaktionen der chinesischen Gesellschaft für landwirtschaftliche Maschinen.