Article in yearbook 2020

Digitization and Automation Developments in the field of Automation and Robotic Systems – An Overview and Insight into a research project

Abstract:

In general, recent developments in the industry sector called Industry 4.0-technologies, such as Cyber-Physical Systems or AI, have already found their way into the field of agriculture. Those technologies have alongside evolutional effects on the used solutions the opportunity to lead to revolutionary or disruptive approaches especially considering robotic systems. The application of AI to reach the next level of automation is additionally illustrated by an insight into a research project for computer-aided process optimization of a self-propelled sugar beet harvester based on machine learning. The approaches and solutions in this field are diverse. For this reason, examples are presented in this and the next yearbooks.

Long version

Übersicht: Entwicklungspfade der Automatisierung

Herausforderungen wie der Klimawandel, das weltweite Bevölkerungswachstum oder der Arbeitskräftemangel erfordern neuartige technische Lösungen. An diesem Punkt setzen Überlegungen zu digitalisierten und automatisierten Lösungen zur Verbesserung bestehender Prozesse und Maschinen an, die mitunter sogar gänzlich neue Maschinen- und Systemkonzepte hervorbringen. Seit mehreren Jahren nehmen die Forschungs- und Entwicklungstätigkeiten bzw. die Veröffentlichungen auf diesem Gebiet zu, so auch im letzten Jahr. Als technologische Treiber sind Korrelationen zur Industrie 4.0 auszumachen. Technologien wie cyber-physische Systeme, Big Data, Cloud-Dienste und Internet of Things bilden neben der für alle intelligenten Systeme obligatorischen KI sowohl bei der Industrie 4.0 als auch beim Farming 4.0 die Grundlage.

Die von Schattenberg et al. [1] in Bild 1 gezeigten Entwicklungspfade der Landtechnik zeigen dazu gut auf, auf welche unterschiedlichen Grundkonzepte die genannten Technologien angewendet werden bzw. inwieweit neuartige Technologien auch zu disruptiven Maschinenkonzepten führen können. Zum heutigen Zeitpunkt ist noch nicht absehbar, welche der drei Pfade erhalten bleiben oder eventuell obsolet werden. Bleibt der Traktor als solches erhalten oder wird er von kleinen Robotern substituiert? Sind kleinste Roboter wirtschaftlich zu betreiben? Bleiben die Selbstfahrer in ihrer heutigen Form erhalten?

Bild 1: Entwicklungspfade in der Landtechnik [1]

Figure 1: Evolution of the used Solutions in the field of Agriculture [1]

 

Betrachtet man die Entwicklung auf der horizontalen Achse in Bild 1 wird deutlich, dass in den einzelnen Pfaden eine evolutionäre Entwicklung stattfindet bzw. stattfand. Solch eine Entwicklung ist auch für die Automatisierung zu erwarten und bereits zu beobachten. Um bestehende und zukünftige Maschinen und Lösungen vergleichbar zu machen und den Umfang der Automatisierung zu erkennen, wurde von Streitberger et al. [2] ein Schema zur Einordnung entworfen, welches in Bild 2 dargestellt ist, wobei die Automatisierungslevel vier und fünf heute noch nicht am Markt vertreten sind.

Bild 2: Stufen der Automation in der Landtechnik [2]

Figure 2: Levels of Automation in the field of Agriculture [2]

 

Ausgehend von den zuerst genannten grundlegenden Technologien lassen sich zu den cyber-physischen Systemen unter anderem Roboter, als Vertreter des disruptiven Entwicklungspfads, und neuartige Assistenzsysteme zählen, welche in allen drei Pfaden verwendbar sind. Bei beiden ist das Entwicklungs- und Forschungsspektrum sehr weit, wie mehrere in den letzten Jahren vorgestellte Konzepte zeigen. Es reicht von einem autonomen Traktor auf Basis einer klassischen Plattform, wie er bereits von CNH Industrial N.V. 2016 vorgestellt wurde [3], über einen mittels Brennstoffzelle angetriebenen intelligenten Traktor [4] bis hin zu im Verhältnis kleinen Robotern, die zum Beispiel im Schwarm säen [5]. Auch gibt es Lösungen, die bestehende Systeme in die Lage versetzen, automatisch ausgeführt zu werden, wie das Beispiel eines vom Mähdrescher gesteuerten Überladewagens zeigt [6]. Daneben wurden weitere Konzepte und Forschungsergebnisse veröffentlicht, wie zum Beispiel der Roboter „Rosie“ der ETH Zürich [7], der ETAROB der FH Aachen [8], die Konzeptstudie x-Tractor von Kubota K.K. [9] oder der AgroBot von Avrora Robotics, welcher ein modulares System darstellt mit dem Ziel, auf jede beliebige Plattform montierbar zu sein [10].

Auch auf den anderen Technologiefeldern gibt es Fortschritte zu verzeichnen. Die Unterscheidung zwischen Big Data, Internet of Things und Cloud-Diensten als voneinander unabhängige Technologien gestaltet sich meistens eher schwierig, da sie in aller Regel zur Funktion aufeinander angewiesen sind. Gute Übersichten zu bereits erschienenen Arbeiten und dem grundsätzlichen Aufbau von Internet of Things-Lösungen in der Landwirtschaft liefern Villa-Henriksen et al. [11] oder Navarro et al. [12]. Es ist festzuhalten, dass Farming 4.0 nicht ohne diese größtenteils auf Software basierenden Lösungen denkbar und umsetzbar ist.

Eine Herausforderung bei der Umsetzung solcher Konzepte ist die fehlende Standardisierung, die alle Bereiche eines Betriebs miteinbezieht. Zwar ist die ISOBUS-Schnittstelle als Standard bei der Kommunikation zwischen Traktor und Anbaugerät etabliert, schließt aber nicht explizit alle weiteren Geräte an anderen Positionen des Betriebs mit ein, zum Beispiel denkbare Boden- oder Wettersensoren. Um dieses Problem zu adressieren, haben unter andrem Bustamante et al. [13] die Plattform thinger.io entwickelt, die allen Geräten eines Betriebs eine gemeinsame Kommunikationsplattform bieten soll. Sie ist als Open-Source-Plattform gestaltet und bietet so einen gewissen Rahmen an Customization. Weitere Einblicke in das Thema Digitalisierung und Vernetzung finden sich in Müller [14].

Es lässt sich zusammenfassend konstatieren, dass die Digitalisierung und Automatisierung der Landwirtschaft neben den Betrieben auch in der Forschung und Entwicklung weiter voranschreitet, es aber noch weiteren vielfältigen Bedarf an Entwicklungsleistung bedarf, um dem Ziel des Farming 4.0 näher zu kommen. Vor allem die Komplexität des Systems „Landwirtschaft“ erfordert eine eben dieser geschuldete systemische Betrachtung, in der nicht nur von den technologischen Entwicklungen nach vorne geschaut, sondern auch über gänzliche neue Ansätze nachgedacht wird. Im Folgenden werden Ergebnisse eines Forschungsprojekts zur Prozessoptimierung eines Zuckerrübenvollernters vorgestellt, das eine evolutionäre Weiterentwicklung und das Erreichen einer höheren Stufe der Automatisierung zum Ziel hat.

 

Einblick: Computergestützte Prozessoptimierung in selbstfahrenden Zuckerrübenvollerntern auf Grundlage maschinellen Lernens

Selbstfahrende Zuckerrübenvollernter sind sehr komplexe Maschinen und werden besonders in Europa in der Zuckerrübenernte eingesetzt. Hierbei werden die charakteristischen Prozessschritte zur Zuckerrübenernte (Schlegeln, Köpfen, Roden, Reinigen und Laden) von der selbstfahrenden Erntemaschine in einer Überfahrt durchgeführt. Diese Konzentration der Arbeitsprozesse und die extreme Arbeitsintensität aufgrund der beschränkten Erntezeiträume stellen hohe Anforderungen an den Fahrer. Er muss kontinuierlich die individuellen Prozesse in Abhängigkeit zueinander anpassen, um ein optimales Ernteergebnis zu erzielen. Das Optimum wird dabei von dem Fahrer unter Berücksichtigung der Qualität und der Leistungsindikatoren eingestellt. Die Umweltbedingungen (Wetter, Bodenbeschaffenheit, etc.) müssen dabei berücksichtigt werden, denn das Optimum steht in Abhängigkeit zu diesen Parametern. Um den Fahrer zu entlasten und die Qualität, die Leistung und die Effizienz zu steigern, wurden die Möglichkeiten der Entwicklung einer computergestützten Optimierung untersucht, die sich nach Streitberger et al. [2] je nach Anwendungsfall in Stufe 3 einordnen lässt.

Dieser Artikel gibt einen Einblick in den Entwicklungsansatz und zeigt Forschungsergebnisse des Bildverarbeitungssystems und der Prozessoptimierung. Der erste Teil des Artikels beschreibt den Ernteprozess und die Abhängigkeiten zwischen den Maschineneinstellungen, der Erntequalität und der Effizienz, welche von dem System optimiert werden sollen. Anschließend wird die Methodik des Entwicklungsansatzes beschrieben, wobei die Integration und Umsetzung von Expertenwissen das Kernelement darstellt. Darauffolgend wird die Ermittlung von Qualitätsparametern mit Hilfe des maschinellen Sehens erläutert. Schließlich wird das darauf aufbauende Optimierungssystem beschrieben und erste qualitative Ergebnisse aus Feldversuchen vorgestellt.

Ernteprozess

Der Ernteprozess, also die Wirkzusammenhänge der Prozesseiseinstellungen und der Erntebedingungen in Bezug auf die Prozessqualität, die Effektivität und ihre Interaktionen sind auf Grundlage von Expertenwissen mittels Interviews mit erfahrenen Fahrern gewonnen worden. Diese Aspekte bilden die Basis für die folgende Untersuchung und die Platzierung des Qualitätssensors im Ernteprozess. In Bild 3 sind die variierenden Umgebungsbedingungen und die einzelnen Prozessschritte sowie die Probenpräsentation für den Qualitätssensor schematisch dargestellt. Die Prozessschritte und die Platzierung des Sensors werden im Folgenden erläutert.

Bild 3: Schematische Darstellung der einzelnen Prozessschritte des Ernteprozesses und deren Einfluss auf das Erntegut nach [15]

Figure 3: Schematic representation of the individual process steps of the harvesting process and their influence on the harvested crop according to [15]

 

Der Prozess startet mit dem Schlegeln und Köpfen der Zuckerrüben. Abhängig von dem Wachstum der Rübe, dem Blattbestand und der Geschwindigkeit der Erntemaschine müssen diese Prozesse angepasst werden. Nach dem Entfernen der Blätter folgt das Roden der Zuckerrüben aus dem Boden. Dazu pflügen die Rüttelschare durch den Boden, um die Rüben herauszuheben und anschließend der Reinigungssektion zuzuführen. Dieser Prozess wird über die Rodetiefe und die Arbeitsgeschwindigkeit vom Fahrer gesteuert. Schlussendlich erreicht die Mischung aus Rüben, verbleibender Erde und Blattresten die Reinigungs- und Transportsektion. Dazu ist von Degen [13] festgestellt worden, dass eine Erhöhung der Rotationsgeschwindigkeit zu einer Erhöhung von Schäden an den Rüben und einer Verringerung an Beimengungen führt.

Nach dem Ende dieser Prozessschritte wird das Ergebnis im Materialfluss sichtbar und somit eine kumulierte Qualität bewertbar. Die kumulierte Qualität kann hier durch den Sensor hinsichtlich aller definierten Qualitätsmerkmale (Verletzungen, Wurzelbruch, Erdanhang, Blattanhang) sichtbar gemacht werden.

Entwicklungsansatz

Basierend auf den beschriebenen Randbedingungen wurde eine Entwicklungsstrategie für das anvisierte Assistenzsystem entwickelt. Kernbestandteil und Zentrum des Entwicklungsprozesses ist das Expertenwissen, welches dem beschriebenen Ernteprozess zugrunde liegt und der Ausgangspunkt für die Implementierung der Methoden des maschinellen Lernens ist. Im Folgenden werden der Entwicklungsansatz und seine Komponenten Schritt für Schritt anhand der schematischen Darstellung in Bild 4 beschrieben.

Bild 4: Struktur des Entwicklungsprozesses für die Umsetzung des anvisierten Assistenzsystems nach [15]

Figure 4: Structure of the development process for the implementation of the targeted assistance system according to [15]

 

Als Ergebnis der Interviews wurde festgestellt, welche Qualitätsindikatoren mit den Maschineneinstellungen zusammenhängen. Auf Basis dieser Korrelationen werden Feldexperimente abgeleitet, mit dem Ziel eine aussagekräftige Datenbasis zu erhalten. Diese wiederum dient als Grundlage für die Entwicklung des Systems zum maschinellen Sehen und der Regelungs-Algorithmen für den Prototyp. Die erhaltenen Daten werden anhand eines Modells nach dem Ort und den Maschineneinstellungen unter Berücksichtigung eines Expertenmodells eingeordnet und ausgewählt. Der selektierte Referenzdatensatz enthält zehn Reihen pro Land mit einem Maximum an zu erwartender Varianz der erzielten Qualität. Der Erwartungswert für die Varianz wurde durch die Optimierung der Verteilung von Maschineneinstellungen im Parameterraum maximiert. Mit diesem Vorgehen konnte ein überschaubarer und trotzdem umfassender Referenzdatensatz für die Auslegung der Teilsysteme erzeugt werden.

Anschließend wurden die Sensordaten des Referenzdatensatzes von Experten hinsichtlich der präsentierten Qualitätsmerkmale auf einer Ordinalskala bewertet. Parallel erfolgte die Entwicklung von Algorithmen für das maschinelle Sehen, um repräsentative Eigenschaften aus dem Bildmaterial zu berechnen. Die so definierten Eigenschaften werden ins Verhältnis zu den Expertenbewertungen gesetzt, sodass die resultierenden Messergebnisse des Sensors den Qualitätskriterien der Experten entsprechen. Diese Kalibrierungsfunktionen sind somit für den Prototypen nutzbar und werden anschließend in Feldexperimenten erprobt. Die dabei erfolgende Bewertung wird wiederum von Experten auf der Maschine evaluiert. Anschließend kann der Entwicklungsprozess unter Berücksichtigung der neu gewonnenen Daten in den nächsten Iterationsschritt gehen. Über das vorhandene Expertenwissen kann dabei sehr flexibel und agil in die Entwicklung der Regelung und der Bildverarbeitung eingegriffen werden.

Entwicklung der Kernelemente

Die Kernelemente des Systems sind ein Embedded Computer Vision System (ECVS = Eingebettetes System zum maschinellen Sehen) und ein computergestütztes System zur Prozessoptimierung (CAPO = Computergestütztes System zur Prozessoptimierung). Beide Subsysteme teilen einige Anforderungen, aber haben ebenfalls spezielle Anforderungen, die zu erfüllen sind. Für das ECVS-System waren sowohl die Hardware als auch die Software Gegenstand der Untersuchung, mit der Restriktion zur Nutzung eines bildbasierten Sensors.

Embedded Computer Vision System

Die Anforderungen an das ECVS-System sind aufgrund der rauen Umweltbedingungen sehr herausfordernd. Die Freiheitsgrade für die Systemlösung sind die Wahl des Sensors, der mechanischen Integration und der Auswertungssoftware für das System.

Tsukor et al. [16] haben 2014 bereits festgestellt, dass eine RGB Kamera sehr kosteneffizient ist. Als problematisch stellte sich damals aber heraus, dass die Robustheit des Sensors nur durch eine kontinuierliche Parametrierung der Software des maschinellen Sehens durch den Fahrer gegeben ist. Glücklicherweise haben Experimente unter Nutzung von Deep Learning-Methoden gezeigt, dass diese Modelle in der Lage sind, robuste und generalisierte Eigenschaften zur Segmentierung des Ernteguts anhand des Referenzdatensatzes zu erlernen.

Für ein erstes Experiment zur Evaluierung der Methode wurden Teile der Daten der ersten Versuchskampagne annotiert. Die Rüben und die Blätter wurden für eine semantische Segmentierung annotiert und ein Convolutional Neural Network damit trainiert. Die verwendete Implementierung ist ein Teil des Systems von Milioto und Stachniss [17], welches bereits gezeigt hat, dass es Rübenpflanzen und andere Pflanzen voneinander unterscheiden, mit einer akzeptablen Bildfrequenz arbeiten und auf einem eingebetteten System ausgeführt werden kann.

Zum Training des Netzwerks wurden 711 Beispielbilder von vier unterschiedlichen Datensätzen (Standorten) herangezogen, die wiederum nach dem Muster 569 / 71 / 71 (Training / Test / Validierung) aufgeteilt wurden. Ausgehend von der Aufteilung sind die Bilder zusätzlich in jede Richtung gedreht worden, woraus ein Trainingsdatensatz mit der Aufteilung von 2276 / 284 / 284 entsteht. Die mittlere Genauigkeit (mAP) nach dem Training entspricht 94,7 % / 95,2 % / 92,4 % für die Trainings- / Test- / Validierungsdaten. Aufbauend auf die Segmentierung ist eine Funktion implementiert, die den Anteil der Blattreste und der Zuckerrüben anhand der Pixelklassen und deren Anzahl ins Verhältnis setzt und daraus die Bewertung der Qualität von der Bildverarbeitung kalkuliert (s. Funktion 1).

Bild 5 zeigt die Evaluation des trainierten Modells in Bezug auf die Blattreste. Im linken Teil der Abbildung ist ein Beispielbild mit der pixelbasierten Segmentierung von Rüben (grüne Maske) und Blattresten (rote Maske) abgebildet. Im rechten Teil der Abbildung befindet sich ein Graph zur Visualisierung der Korrelation zwischen den erkannten und bewerteten Blattresten der Bildverarbeitung und der Benotung der Experten. Dabei wurden die Sensor- und die Expertenbewertung jeweils über einen Zeithorizont von zehn Sekunden gemittelt, um die prozessbedingten Schwankungen von aufeinanderfolgenden Bildern auszugleichen.

Bild 5: Links: Kamerabild vom Qualitätssensor mit überlagerter Maskierung auf Basis der Pixelklassifizierung (grüne Maskierung: Rüben, rote Maskierung: Blatt); Rechts: Korrelation von Expertenbewertung und Bildverarbeitungsparametern für die Bewertung der Blattreste

Figure 5: Left: Camera image from the quality sensor with superimposed masking based on pixel classification (green masking: beet, red masking: leaf); Right: Correlation of expert evaluation and image processing parameters for leaf residue evaluation

Das Ergebnis zeigt bereits eine gute Korrelation (R2 = 68,9 %) von der maschinellen und der manuellen Bewertung für die Blattreste mit einem Offset auf der y-Achse. Ein Grund für diesen Offset kann die geringe Verfügbarkeit von guten Daten in den Datensätzen sein (bspw. Italien). Dass eine bessere Verfügbarkeit und Aufteilung der Daten über den Bewertungsbereich (sehr gut bis ungenügend) erforderlich ist, zeigt sich auch anhand der visualisierten Häufigkeitsverteilung (grüne Schattierung des Hintergrundes) der Datenpunkte im Graphen. Trotzdem lässt sich aus den Ergebnissen eine gute Vorhersagegenauigkeit der Qualität auf Basis ungesehener Daten konstatieren, welche gut mit der Evaluation der Experten korreliert.

Letztendlich ist dies nur ein Beispiel zur Visualisierung des Entwicklungsprozesses. Die Entwicklung der realen Prototypen für die Bestimmung der Qualitätsmerkmale (Wurzelschäden, Oberflächenschäden, Blattreste und Erdrückstände) wurde vom Projektpartner CLK GmbH durch Nutzung des Ansatzes übernommen, bei gleichzeitiger Verbesserung der Segmentierung und der abgeleiteten Korrelationsfunktionen. Dabei kombiniert der Ansatz Deep Learning zur robusten Segmentierung und traditionelle Methoden des maschinellen Sehens für die Extrahierung der Korrelationsfunktionen, welche im gezeigten Beispiel einfach gehalten ist.

Computergestütztes System zur Prozessoptimierung

Bild 6 stellt das Blockdiagramm der computergestützten Optimierung und ihrer Komponenten dar. Gut ersichtlich sind die zwei neuen Bestandteile der Maschinensteuerung, namentlich Referenzmodellberechnung und die Optimierungsroutine. Im Allgemeinen kontrolliert der Fahrer die Erntemaschine direkt und justiert mit dem Ziel eines guten Prozessverhaltens die Systemeingaben. Jedoch soll nun die Prozessoptimierung die Ernteleistung erhöhen und das Stresslevel des Fahrers durch die Entscheidungsunterstützung senken.

Bild 6: Blockdiagramm der computergestützten Prozessoptimierung nach [15]

Figure 6: Block diagram of computer-aided process optimization according to [15]

 

Dabei kann der Fahrer direkten Einfluss auf die Gewichtung der Qualitätsmerkmale, der Effizienzindikatoren und somit auf die Optimierungsroutine nehmen, um das Ergebnis seiner Erntestrategie anzupassen. Die Routine errechnet anschließend eine optimale Einstellung der Maschine anhand eines vereinfachten Prozessmodells (Referenzmodell) der Erntemaschine unter Berücksichtigung der vom Fahrer vorgegebenen Gewichtungen (s. Gleichung 2). Schlussendlich gibt die Optimierungsroutine zur Erreichung des Ernteziels das Ergebnis für die Systemeinstellung an den Fahrer. Zur Visualisierung und Überwachung der Vorgaben durch den Fahrer wird eine GUI genutzt.

Die Identifikation des Referenzmodells bildet die Grundlage für die Optimierung. Die Referenzmodellberechnung besteht aus einer Machine-Learning-Pipeline, die Regressions-Modelle für die einzelnen Qualitätsparameter zu einem vereinfachten Prozessmodell zusammenfasst. Neben Filterverfahren und anderen Vorverarbeitungsroutinen ist die Kernkomponente das Erlernen der Regressionsmodelle. Die Regressionsmodelle müssen in der Lage sein, die Systemeinstellungen mit ausreichender Genauigkeit auf die Indikatoren abzubilden. Da eine Anforderung ist, dass die Modellierung robust gegenüber Änderungen sein muss, die durch verborgene Parameter (z. B. Bodentyp, Rübenwachstum, Laubwachstum) induziert werden, wird eine kontinuierliche Lernstrategie implementiert, welche eine Anpassung an sich verändernde Umgebungsbedingungen ermöglicht.

Für die Regression wurde ein nicht-lineares Modell gewählt, da die Wirkzusammenhänge in einem Referenzdatensatz dadurch besser abgebildet werden konnten als mit einem linearen Modell. Beide Modelle hatten eine vernünftige Vorhersagegenauigkeit, das Bestimmtheitsmaß von Modellen mit nicht-linearen Faktoren ist jedoch fünf bis zehn Prozent höher. Darüber hinaus wurden außerdem komplexere Modelle wie ein mehrschichtiges Perzeptron (MLP) untersucht. Diese Modelle zeigten jedoch ein Overfitting, da es im Training ein hohes Bestimmtheitsmaß erreichte, bei den Testdaten aber von den weniger komplexen Modellen übertroffen wird.

Das Gesamtsystem wurde schließlich in einem Feldexperiment, das die Ernte von zwei Feldern mit einer Größe von etwa vier Hektar umfasste, getestet. Bild 7 visualisiert die Vorhersagen der Referenzmodelle und deren mittleren quadratischen Fehler als Funktionen der Sensordaten für Wurzelbruch, Oberflächenbruch, Blattanhang und Erdanhang. Die Vorhersagen der Modelle wurden aus den experimentellen Daten berechnet. Bei den Feldversuchen manipulierte der Bediener stetig die Einstellungen der Maschine für die Evaluierung des Vorschlagssystems. Aufgrund der stetigen Variation konnte in diesem Fall eine kontinuierliche Adaption der Modelle anhand der letzten zehn Fahrspuren als ausreichend angenommen werden. Die Legende zeigt die Korrelation zwischen Modellvorhersage und Sensorbewertung in Form der Geradengleichung. Abgesehen von den Oberflächenverletzungen korrelieren die Vorhersagen des Modells recht gut mit den Sensordaten, was anhand der Steigung von ~0,7 abgelesen werden kann. Jedoch deutet die Häufigkeitsverteilung der Messpunkte (blaue Schattierung) darauf hin, dass die Differenzierung der Qualitätsmerkmale Wurzelbruch und Oberflächenverletzung durch den Sensor weiter untersucht werden sollte. Außer den gezeigten Indikatoren werden ebenfalls die Flächenleistung in Hektar pro Stunde und der Kraftstoffverbrauch in Litern pro Hektar bei der Optimierung berücksichtigt.

Die Evaluierung der Einstellungsempfehlungen durch das System anhand der Prozessmodelle wurde innerhalb der Experimente von einem erfahrenen Bediener durchgeführt. Vor jeder Evaluation manipulierte der Bediener die Maschineneinstellungen, um Qualität und Kraftstoffverbrauch zu beeinflussen bzw. zu variieren. Anschließend wurden dem Bediener auf den Gewichtungen basierende Systemvorschläge gezeigt, welche anschließend eingestellt und evaluiert wurden. In sieben von zehn Fällen stimmten die Vorschläge mit der idealen Einstellung des erfahrenen Bedieners überein. Zur Bewertung kategorisierte der Bediener die Einstellung jeweils als „i. O.“ oder „n. i. O“.

Bild 7: Korrelation von den Prozessmodellen zur Beschreibung der Qualitätsparameter und der Qualitätsbewertung durch den Sensor (oben von links nach rechts: Blattanhang und Erdanhang, unten von links nach rechts: Wurzelbruch und Oberflächenverletzung)

Figure 7: Correlation of the process models describing the quality parameters and the quality assessment by the sensor (top from left to right: leaf attachment and soil attachment, bottom from left to right: root break and surface injury)

 

Auf Basis dieses Ergebnisses wird die Einführung einer gezielteren Bewertungsmethode für das System erforderlich, da die qualitative Analyse im Feld für den Nachweis der Korrelation zwischen Fahrer- und Systemeinstellung ausreicht, jedoch ein Nachweis der Effizienzsteigerung durch minimale Optimierungen der Maschineneinstellung nicht erfassen kann.

Fazit und Ausblick

Der Artikel präsentiert die Entwicklungsmethodik für eine computergestützte Prozessoptimierung. Diese ermöglicht die Implementierung eines Assistenzsystems für einen selbstfahrenden Zuckerrübenvollernter, welches die Maschineneinstellung in Abhängigkeit zu den vom Fahrer gesetzten Qualitätszielen und der Effektivität vornimmt. Weiter ist ein Prototyp entstanden. Als Ergebnis kann das System den Fahrer durch die kontinuierliche Überwachung der Qualität und Maschineneinstellung während der Erntesaison entlasten und ihn stetig bei der Maschineneinstellung unterstützen.

Im speziellen ermöglicht der Fortschritt bei dem maschinellen Sehen, ausgelöst durch die Fortschritte bei den Deep Learning-Methoden, die Integration bildbasierter Qualitätssensoren, welche die notwendige Robustheit gegenüber den Umweltbedingungen erreichen. Darüber hinaus gestaltet sich der Sensor als technisch simpel und kosteneffizient. Die dargestellten Resultate sind wiederum nur ein erster Ansatz, die die Möglichkeiten der Kombination von Deep Learning-Methoden und dem traditionellen maschinellen Sehen für die Entwicklung von Assistenzsystemen zur Optimierung und Kontrolle von landwirtschaftlichen Prozessen aufzeigen.

Des Weiteren wird deutlich, dass ein kontinuierlicher Lernansatz eine mögliche Lösung zur Handhabung von wechselnden Umweltbedingungen ist. Dabei kann die Modellkomplexität relativ einfach gehalten werden, obwohl ein komplexer Prozess abgebildet wird. Die Korrelation des Referenzmodells weist dabei in die richtige Richtung, aber die Genauigkeit kann noch weiter gesteigert werden, insbesondere die Modellierung der Wurzel- und Oberflächenschäden bzw. deren Erkennung haben Entwicklungspotential. Dazu ist die Erweiterung des Qualitätssensors um neue Daten bzw. weitere Grenzfälle essenziell. Weiter sollten neben einer zeitbezogenen weitere adaptive Lernstrategien umgesetzt werden, da dadurch keine stetige Manipulation der Maschineneinstellung für die Verfeinerung des Modells und somit die Leistungssteigerung des Systems erforderlich ist.

Abschließend bleibt festzuhalten, dass der präsentierte Forschungsstand zwischen den Automatisierungsstufen 2 und 3 einzuordnen ist, da aktuell noch der Fahrer die Adaption der Einstellung übernehmen musste. Jedoch fehlen zum Erreichen eines „überwacht automatisierten“ Systems lediglich ergänzende Feldexperimente, in denen die Absicherungsmechanismen des Systems gegenüber Fehleinschätzungen erprobt werden sollten, bevor eine korrekte Funktionsweise im autonomen Betrieb gewährleistet werden kann.

Literatur

[1]     Schattenberg, J.; Schramm, F. und Frerichs, L.: Entwicklungsszenarien einer automatisierten Pflanzenproduktion. Journal für Kulturpflanzen 71 (4) (2019), S. 101-107.

[2]     Streitberger, N.; Balbach, F. und Nacke, E.: Vom manuellen Fahren zur vollen Autonomie: – Ein Ansatz zur systematischen Definition verschiedener Stufen der Automation in der Landtechnik. Conference Agricultural Engineering und Max-Eyth-Gesellschaft für Agrartechnik 21.11 (2018).

[3]     agrarheute: Brandneu: Der autonome Traktor von Case IH. URL – https://www.agrarheute.com/technik/traktoren/brandneu-autonome-traktor-case-ih-526391, Zugriff am 11.02.2021.

[4]     Sebastian: China bringt ersten wasserstoffbetriebenen intelligenten 5G-Traktor auf den Markt. Elektroauto-News.net, URL – https://www.elektroauto-news.net/2020/china-erster-wasserstoffbetriebener-intelligenter-5g-traktor, (17.06.2020), Zugriff am 10.02.2021.

[5]     Deter, A.: Fendt Xaver als Säroboter live vorgeführt. top agrar online. URL – https://www.topagrar.com/technik/news/fendt-xaver-als-saeroboter-live-vorgefuehrt-12342225.html, (07.09.2020), Zugriff am 10.02.2021.

[6]     Raven Applied Technology: AutoCart® - Raven Applied Technology. URL – https://ravenprecision.com/raven-autonomy/driverless-ag-technology/autocart, Zugriff am 11.02.2021.

[7]     Agrartechnik Österreich: Autonomer Agrarroboter „Rosie“ der ETH Zürich. URL – https://www.agrartechnik.at/aktuelles/2020/06/autonomer-agrarroboter--rosie--der-eth-zuerich.html, Zugriff am 10.02.2021.

[8]     N.N.: ETAROB — MASKOR Institut | FH Aachen UoAS. URL – https://maskor.fh-aachen.de/projects/ETAROB/, Zugriff am 11.02.2021.

[9]     Kubota: Kubota stellt das neue Konzept „X-TRACTOR“ (Cross Tractor) - Kubota. URL – https://kdg.kubota-eu.com/blog/news/kubota-stellt-das-neue-konzept-x-tractor-cross-tractor/#agriculture, Zugriff am 12.02.2021

[10]   N.N.: AGROBOT Project - Avrora Robotics. URL – https://avrora-robotics.com/en/projects/agrobot/, Zugriff am 11.02.2021.

[11]   Villa-Henriksen, A. et al.: Internet of Things in arable farming: Implementation, applications, challenges and potential. Biosystems Engineering 191 (2020), S. 60-84.

[12]   Navarro, E.; Costa, N. und Pereira, A.: A Systematic Review of IoT Solutions for Smart Farming. Sensors (Basel, Switzerland) 20 (2020) H. 15.

[13]   Degen, P.: Principles of Mechanical Cleaning Tools for Sugar Beet. Agrartechnische Forschung 7. (2), E43–E47, 2001. URL – http://440ejournals.uni-hohenheim.de/index.php/ATF/article/view/8094, Zugriff am 26.02.2021.

[14]   Müller, H.: Digitalisierung und Vernetzung – das Agri-Food System im digitalen Wandel. In: Frerichs, Ludger (Hrsg.): Jahrbuch Agrartechnik 2020. Braunschweig: Institut für mobile Maschinen und Nutzfahrzeuge, 2021. S. 1-8. DOI: https://doi.org/10.24355/dbbs.084-202012111218-0.

[15]   Schwich, S. Schattenberg, J. und Frerichs, L.: Development of a Machine Learning-based Assistance System for Computer-Aided Process Opitimization within a Self-Propelled Sugar Beet Harvester. 2020 ASABE Annual International Meeting, DOI: https://doi.org/10.13031/aim.2000952.

[16]   Tsukor, V. et al.: Cost efficient surface condition determination system for sugar beets for a harvester cleaning control using an industrial RGB camera. URL – https://www.hs-osnabrueck.de/fileadmin/HSOS/Homepages/COALA/Veroeffentlichungen/2014_CIGR2014_Tsukor.pdf, Zugriff am 26.02.2021.

[17]   Milioto, A. und Stachniss, C.: Bonnet: An Open-Source Training and Deployment Framework for Semantic Segmentation in Robotics using CNNs. 25.02.2018, URL – http://arxiv.org/pdf/1802.08960v2, Zugriff am 26.02.2021.

Autorendaten

M.Sc. Steffen Schwich ist wissenschaftlicher Mitarbeiter am Institut für mobile Maschinen und Nutzfahrzeuge der TU Braunschweig.

Dr.-Ing. Jan Schattenberg ist Gruppenleiter Automation und Robotersysteme am Institut für mobile Maschinen und Nutzfahrzeuge der TU Braunschweig.

B.Sc. Phillip Hildner ist Studierender an der TU Braunschweig.

Prof. Dr. Ludger Frerichs ist Institutsleiter des Instituts für mobile Maschinen und Nutzfahrzeuge der TU Braunschweig.

Keywords:
assistance systems, Levels of Automation, Development Trends, Cyber-physical Systems, Machine Learning, Computer Vision, Deep Learning, Harvesting Quality Estimation
Citable URL:
Copy Visit URL
Recommended form of citation:
Schwich, Steffen; Schattenberg, Jan; Hildner, Phillip; Frerichs, Ludger: Developments in the field of Automation and Robotic Systems – An Overview and Insight into a research project. In: Frerichs, Ludger (Hrsg.): Jahrbuch Agrartechnik 2020. Braunschweig: Institut für mobile Maschinen und Nutzfahrzeuge, 2021. – pp. 1-14

Go back