Starke Baselines für neuronales semi-überwachtes Lernen bei Domänenverschiebung

In den letzten Jahren wurden neue neuronale Modelle vorgeschlagen, um das Lernen bei Domänenverschiebungen zu verbessern. Die meisten Modelle bewerten jedoch nur eine einzelne Aufgabe, verwenden proprietäre Datensätze oder vergleichen sich mit schwachen Baselines, was die Vergleichbarkeit der Modelle erschwert. In dieser Arbeit evaluieren wir klassische allgemeine Bootstrapping-Methoden im Kontext von neuronalen Netzen bei Domänenverschiebungen neu und vergleichen sie mit aktuellen neuronalen Ansätzen. Wir schlagen zudem eine neuartige Multi-Task Tri-Training-Methode vor, die die zeitliche und räumliche Komplexität des klassischen Tri-Trainings reduziert. Ausführliche Experimente auf zwei Benchmarks ergaben negative Ergebnisse: während unsere neuartige Methode einen neuen Stand der Technik im Sentiment Analysis etabliert hat, erzielt sie nicht konsequent die besten Ergebnisse. Von größerer Bedeutung ist unser etwas überraschender Befund, dass das klassische Tri-Training, mit einigen Ergänzungen, den aktuellen Stand der Technik übertrifft. Wir kommen zu dem Schluss, dass klassische Ansätze eine wichtige und starke Baseline darstellen.