Zu physischer Plausibilität in Neuroevolutionsystemen

Die zunehmende Verwendung von künstlichen Intelligenzmodellen, insbesondere von Deep Neural Networks (DNNs), führt zu einer steigenden Energieaufnahme während des Trainings und der Inferenz, was Umweltbedenken aufwirft und die Notwendigkeit nach energieeffizienteren Algorithmen und Hardware-Lösungen verstärkt. Diese Arbeit adressiert das wachsende Problem des Energieverbrauchs im Bereich des maschinellen Lernens (ML), insbesondere während der Inferenzphase. Bereits eine geringfügige Reduktion des Energieverbrauchs kann zu erheblichen Energieeinsparungen führen und somit Nutzern, Unternehmen und der Umwelt zugutekommen. Unser Ansatz zielt darauf ab, die Genauigkeit von künstlichen neuronalen Netzen (ANNs) innerhalb eines neuroevolutionären Frameworks zu maximieren, während gleichzeitig deren Energieverbrauch minimiert wird. Dazu wird der Energieverbrauch explizit in die Fitnessfunktion integriert. Wir stellen eine neue Mutationsstrategie vor, die modulare Schichten stochastisch wiederherstellt, wobei energieeffizientere Module eine höhere Wahrscheinlichkeit besitzen, ausgewählt zu werden. Zudem führen wir eine neuartige Technik ein, die es ermöglicht, zwei getrennte Modelle in einem einzigen Trainingsdurchlauf zu trainieren, wobei eines der Modelle gezielt energieeffizienter als das andere gestaltet wird, ohne dass die Genauigkeit signifikant beeinträchtigt wird. Die Ergebnisse zeigen eine Reduktion des Energieverbrauchs von ANN-Modellen um bis zu 29,2 %, ohne dass die prädiktive Leistung signifikant abnimmt.