Robuste Roboterhand vom DLR

Einen Vorgeschmack zur weiteren Entwicklung in der Robotik hat das Deutsche Zentrum für Luft- und Raumfahrt (DLR) in den letzten Tagen geliefert:
Angetriggert von einem Artikel in der IEEE Spektrum, wie ich annehme, berichteten in den letzten Tagen allerhand englischsprachige Robotik-Blogs (z.B.) über die neue Roboterhand, die das DLR vorgestellt hat.

/images/blog/dlr-leichtbau-hand.jpg
Leichtbau-Hand des DLR

Die Hand sieht nicht nur spektakulär aus, ihre wahre Sensation liegt zum einen in ihrer Ähnlichkeit zur menschlichen Hand und vor allem in ihrer Robustheit. Die Ähnlichkeit zur menschlichen Hand liegt maßgeblich im (technische) Design begründet, das dem Bewegungsapparat der menschlichen Hand sehr Nahe kommt. Dass die Hand in den Blogs dieser Welt unter Bezeichnungen wie Super Robust Robot Hand geführt wird, ist darin begründet, dass das DLR zeigen kann, dass diese Hand selbst mehrere Schläge mit einem Hammer überlebt; mit nahezu allen bisherigen Robotik-Bauteilen absolut undenkbar. Vor allem, wenn sie dafür nicht in eine Schutzhülle eingepackt sein müssen und sich dabei noch so präzise bewegen können.

Hier im Video ist die Hand zu sehen und wie mit ihr umgegangen wird:

Leichtbau-Hand des DLR in Bewegung und grob behandelt

Schon auf der Automatica im letzten Jahr zeigte das DLR die Hand plus angeschlossenem Unterarm und zog damals schon viele Blicke auf sich. Dass die Robotik-Abteilung des DLR um Hirzinger plant, sozusagen als nächsten großen Wurf, dieses Designprinzip innerhalb der nächsten fünf Jahr in einen Vollkörper-Humanoiden fließen zu lassen, stimmt mich äußerst erwartungsvoll. Der Plan ist, so hört man aus eingeweihten Kreisen, innerhalb der nächsten fünf Jahre die Hardware des Roboter fertigzuhaben und in weiteren fünf Jahren den Roboter vollständig zu beherrschen, so dass er rennen und Treppen rauf- und runterspringen kann. Und wem ist das mehr zuzutrauen, als dem DLR, nachdem die Robotik-Abteilung zuletzt mit dem Leichtbau-Industriearm gezeigt hat, zu welchen technologischen Sätzen man dort in den Lage ist.

Was diese Hand so besonders robust macht, ist ihr durchdachtes Design, moderne Materialien, aber vor allem die Verwendung von künstlichen Sehnen zur Bewegung der Finger. Diese erlauben es, plötzlich auftretenden Kräften nachzugeben (wie zum Beispiel bei einem Aufprall), so dass die Struktur der Hand und die Elektronik von diesen Kräften nicht verletzt wird. Weiterhin wurden die Sehnen in einer Art und Weise verbaut, die es erlauben, ihre Steifigkeit zu verändern. Also etwa steife Sehnen für einen möglichst präzisen Griff und weniger steife Sehnen, wenn es darum geht, unbekannte Gegenstände zu ertasten, oder empfindliche Objekte sanft zu greifen.

Mit insgesamt 19 Freiheitsgraden ist die Hand außerdem ähnlich bewegungsfähig wie unsere Hand (die gerade einmal einen Freiheitsgrad mehr hat). Bei der Konstruktion haben die Bauer darauf achtgegeben, dass die Bewegungsabläufe der Finger denen menschlicher Finger sehr nahe kommen, was diese Hand insgesamt mit all den obigen Faktoren zur aktuell wahrscheinlich coolsten Roboterhand für Humanoide macht. Der Konferenzbeitrag 1 zu der Hand und diesem Arm wurde auf der HUMANOIDS-Konferenz im Dezember in Nashville folgerichtig mit dem Best Paper Award ausgezeichnet. Dort zeigte der Vortragende Grebenstein im Video, wie mit einem Baseball-Schläger auf den Arm eingeschlagen wird, ohne dass dieser Schaden nimmt. Und das – das macht es so beeindruckend – nicht etwa mit ausgeschalteten Motoren und schlaff herumhängend, sondern in voller Positionsregelung. Ein gehöriger Unterschied, muss man doch bislang mit Robotern jede Bewegung im Vorhinein in Simulation ausführen, um jede Kollision mit eigenen Körperteilen oder anderen Objekten und eine damit einhergehende Beschädigung des Roboters auszuschließen.

Auf den Humanoiden des DLR in diesem Design kann man nur gespannt sein. Mehr und mehr beeindruckende Humanoide hat man in den letzten zwei Jahren die Weltbühne betreten sehen. Aber ein Leichtbau-Roboter, der in jedem Detail so durchdacht und so technologisch fortgeschritten ist, wie es uns mit der DLR-Hand gezeigt wurde, dürfte ein neues Niveau erreichen.

Die neuen Beine des iCub

In der letzten Zeit habe ich einige Male über den iCub geschrieben. Das liegt zum Einen daran, dass ich bekennender iCub-Fan bin und zum Anderen daran, dass ich in letzter Zeit immer häufiger von Arbeitswegen mit ihm in Berührung komme. Endlich finde ich nun die Zeit, mal über eine neue Entwicklung des iCub zu schreiben, die ich schon seit einigen Monaten mit Spannung verfolge und zu der ich jetzt auch Bilder und Videos aus erster Hand zeigen kann: Die neuen Beine des iCub.

Der iCub ist im Rahmen des RobotCub-Projekts seit 2004 entstanden und wird seitdem kontinuierlich weiterentwickelt. Hauptsächlich bezog sich dies in den letzten Jahren auf Weiterentwicklung der Firmware und der iCub-Softwareumgebung, um die vorhandene Hardware immer besser, effektiver und einfacher nutzen zu können. Da der iCub als humanoide Forschungsplattform aber so erfolgreich ist, wird er konsequenterweise auch in Sachen Hardware weiterentwickelt. Kopf, Hände, Arme, Beine … für nahezu alle Teile existieren mehr oder weniger fortgeschrittene Pläne und Ansätze zur Weiterentwicklung.

Am CoR-Lab arbeiten wir zur Zeit noch mit der ersten Version des iCub, auf der Summer School jedoch durfte ich schon mit einer weiterentwickelten Version des iCub arbeiten, die über Kraftsensorik in Armen und Beinen verfügt. Diese Kraftsensoren können (noch relativ grob) Kontaktkräfte messen, die auf Arme und Beine einwirken. So erlaubt diese iCub-Version zum Beispiel, dass man den iCub bei der Hand nimmt und seinen Arm führt; ein bedeutender Fortschritt in der Interaktion von Mensch und Roboter, wenn man ihn anfassen und führen kann. Eine weitere faszinierende Möglichkeit ist, den Roboter in einen Nachgiebigkeits-Modus zu schalten. In diesem Modus reagiert der Roboter auf die Kräfte, die auf ihn wirken, auf die gleiche Art, wie es eine Feder tun würde: Bei kleiner Krafteinwirkung gibt der Roboter ein wenig nach, bei größerer Krafteinwirkung gibt der Roboter deutlicher nach. Der Roboter fühlt sich dadurch sanft und weich an. Dieser Modus, diese Art der Regelung, nennt sich Active Compliance (aktive Nachgiebigkeit). Ein Video mit dieser iCub-Version zeigt, wie Ugo diese Eigenschaften nutzt, um den iCub mit Spielzeug vertraut zu machen:

Der iCub wird geführt und kann Objekte ertasten

Bei meinem Besuch am IIT (Italien Institute of Technology in Genua) an einem Tag während der Summer School habe ich eine iCub-Version kennengelernt, die für das AMARSi-Projekt entwickelt wird und dieses Konzept noch weiter treibt. Dieser iCub (der vielleicht irgendwann einmal auf den Namen cCub, Compliant iCub, hören wird), hat nicht nur wie sein Vorgänger in Armen und Beinen jeweils einen Kraftsensor, sondern er verfügt über neue Gelenke, die jeweils sowohl weitere Kraftsensorik als auch echte mechanische Federn integrieren. Was diese integrierten Gelenk-Module in dem Betrachter auszulösen vermögen, wenn sich der iCub damit bewegt, ist eine der faszinierendsten Dinge, die ich in letzter Zeit in der Robotik gesehen habe. Die Kombination aus Active Compliance, also der durch Sensorik und Regelung simulierten Nachgiebigkeit, mit der realen Nachgiebigkeit der eingebauten mechanischen Fähigkeiten (Passive Compliance), bewirkt eine Natürlichkeit der Bewegung des Roboters, die im ersten Moment irritierend bis verstörend wirken kann.

Active Compliance allein macht die Interaktion mit dem Roboter schon deutlich natürlicher, und Bewegungen sehen weicher, runder und natürlicher aus. Nichtsdestotrotz bleibt der Eindruck beim Betrachter, dass es sich – tatsächlich – nach wie vor um eine Maschine handelt. Und genau dieser Eindruck scheint in dem Moment zu verschwinden, in dem zu der aktiven Nachgiebigkeit die echte (passive) Nachgiebigkeit der mechanischen Federung hinzukommt. Der Roboter bewegt sich damit offenbar in einer Art und Weise mit unterbewusst wahrgenommenen Schwingungen, die im menschlichen Hirn den Eindruck erwecken, hier würde sich ein biologisches Körperteil bewegen. Die mechanische Federung scheint ein ähnliches Muster aus Schwingungen und Oberschwingungen zu erzeugen, wie es menschliche Muskeln und Sehnen tun. Für mich war dies ein faszinierender, erschreckender Moment – als Robotiker allerdings positiv, was vermutlich nicht jedem Betrachter so ergeht. Nikos Tsagarakis, dessen Gruppe am IIT diese integrierten nachgiebigen Gelenke des iCub entwickelt, hat mir Fotos und Videos zugesandt und mir erlaubt, diese hier im Blog zu veröffentlichen. Zu sehen sind im folgenden Video die neuen Beine (noch ohne Oberkörper), wie sie balancieren und kleine Schritte tun. Ich weiß nicht, wie gut der beschriebene Effekt im Video erkennbar ist, wenn man ihn nicht live erlebt, aber dies ist der Versuch:

Die neuen Beine des iCub in Bewegung

Wer dies im Video nicht zu erkennen vermag, erfreut sich vielleicht an der Vorstellung des vergangenen AMARSi-Projekttreffens, als bei der Live-Demo dieser Beine grob geschätzt 40 Wissenschaftler, die in ihrem Leben schon hunderte Roboter gesehen haben, schweigend und mit großen Augen minutenlang diesen Beinen bei ihrer einfachen Bewegung zusahen.

Und hier die Beine nochmal in der Großaufnahme:

/images/blog/ccub-legs.jpg
Die neuen Beine des iCub (Foto: IIT)

Technisch Interessierte finden eine detailliertere Beschreibung dieser integrierten Aktuatoren in der Konferenzbeitrag zur ICRA 2009: A Compact Soft Actuator Unit for Small Scale Human Friendly Robots (kostenpflichtiger Zugriff via IEEE). Die weitere Entwicklung dieser iCub-Version wird weiterhin auf der Website des AMARSi-Projekts dokumentiert.

Compliance

Traditionell ist die Interaktion mit Robotern darauf beschränkt, dass dem Roboter Kommandos zugesandt werden (in der Regel als textuelle Kommandos, seltener per Sprache) und der Roboter über geeignete Sensorik (Kameras, Mikrofone, Laserscanner, …) seine Umgebung wahrzunehmen versucht. Was dabei in der Interaktion mit Menschen entsteht, ist allerdings häufig eine holprige, wenig natürliche und dadurch für Menschen oft anstrengende Interaktion. Dass man auf diese Art und Weise auch Menschen mit Robotern interagieren lässt, die nicht an der Entwicklung beteiligt waren und dadurch nicht Verständnis für diese Schwierigkeiten aufbringen, passiert daher eher selten.

Eine Form der Interaktion, die sehr viel natürlicher ist, weil sie durch die physische Rückkopplung sehr viel direkter ist, ist die direkte Berührung und damit das Führen des Roboters. Der Mensch fasst den Roboter an der Hand (sofern er eine solche besitzt) und leitet den Roboter an. In der Robotik ist dies ein relativ aktueller Zweig der sogenannten Mensch-Maschine-Interaktion (MMI, Human Machine Interaction – HMI). Im Umfeld der industriellen Robotik sind ähnliche Techniken unter den Begriffen Teach-In und Kinestethic Teaching zu finden.

Es gibt mehrere Möglichkeiten, einen Roboter für diese Form der Interaktion auszustatten. Eine Möglichkeit ist es, die Hardware des Roboters bewusst so zu konstruieren, etwa durch die Integration von mechanischen Federn in Struktur des Roboters, dass dieser nachgiebig ist. Diese Art der Nachgiebigkeit wird in der Robotik bzw. Regelungstechnik als Passive Nachgiebigkeit (engl.: Passive Compliance) bezeichnet, da sie – einmal verbaut – das System ohne weiteres Zutun dauerhaft nachgiebig gestaltet.

Eine aufwendigere, aber dafür auch flexiblere Möglichkeit ist die Aktive Nachgiebigkeit (engl.: Active Compliance). Hierbei kann die Roboterhardware mechanisch völlig steif sein; die Nachgiebigkeit des Systems wird durch eine entsprechende Ansteuerung der Motoren simuliert. Dafür ist der Roboter mit Kraftsensorik ausgerüstet, die dem System konstant die auf den Roboter einwirkenden externen Kräfte meldet. Eine geschickte Regelung (Wikipedia) lässt den Roboter dann auf diese Kräfte auf die gleiche Art und Weise reagieren, wie es eine reale Feder tun würde: Bei kleiner Krafteinwirkung gibt der Roboter mit einer kleinen Bewegung nach, bei größerer Krafteinwirkung reagiert der Roboter mit einer deutlicheren Ausweichbewegung. Nicht, weil die Motoren nicht kräftig genug wären, den Kräften entgegenzuhalten, sondern weil dieses Verhalten den Eindruck eines weichen, nachgiebigen Systems erweckt und erwecken soll. Wie so eine Interaktion aussehen kann, zeigt das folgende Video:

Der iCub wird geführt und kann Objekte ertasten

Nachgiebigkeit ist dabei allerdings nicht allein für Interaktion eingesetzt; es ist auch ein enormer Sicherheitsaspekt. Ein Roboter, der mit seiner Umgebung (im schlimmsten Fall dem Menschen) kollidiert, weil er sie nicht richtig erkannt hat, richtet potentiell deutlich weniger Schaden an, wenn er nachgiebig ist;
Schaden an sich und der Umwelt. Dies gilt für passive Nachgiebigkeit, genauso wie für aktive Nachgiebigkeit, wie das Deutsche Luft- und Raumfahrtzentrum im folgenden Video eindrücklich und mit offenbar ausreichend Vertrauen in die Technik beweist; am Ende des Videos mit Messer und einem menschlichen Probanden:

KUKA Lightweight Robot IV mit Kollisionserkennung

Roboter: iCub

/images/blog/icub-krabbelnd.jpg
Der iCub (Foto von LV, robotcub.org)

Der iCub ist ein waschechter europäischer Roboter-Spross. Die Vision zu diesem Roboter hatte Giorgio Metta vom IIT (Italien Institute of Technology), der an seinem Institut zusammen mit vielen anderen europäischen Forschungsinstituten im fünf­jäh­ri­gen RobotCub-Projekt das Roboterkind entwickelte.

Die Kleinkind-Gestalt des iCub kommt nicht von Ungefähr. Mit dieser Gestalt trickst man die Kommunikationspartner – den menschlichen Gegenüber des iCub – aus. Zum einen erwarten Menschen instinktiv von einem Kind nicht so viele, komplexe und entwickelte Fähigkeiten wie von einem Erwachsenen. Entsprechend verzeihen wir einem kindlichen Roboter eher die Fehler, die jeder Roboter heutzutage nun einmal noch zuhauf und ständig begeht: Sie verstehen uns nicht, erkennen Objekte in ihrer Umgebung nicht und greifen daneben, wenn sie diese greifen sollen.

Zum anderen bietet die kindliche Gestalt große Vorteile für den Roboter, wenn es darum geht, Fähigkeiten vom Menschen zu lernen. Unbewusst ändern Menschen ihre Sprache, Gestik und Mimik gegenüber Kleinkindern. Sprechen wir mit Kindern, sprechen wir sehr deutlich und sehr betont. Wir achten darauf, Bewegungen langsam und deutlich auszuführen und synchron mit der Stimme auszuführen die gerade die Bewegung oder deren Zweck beschreibt. Und wir zeigen mit unserem Blick ganz deutlich, wo auch das Kind gerade hinsehen sollte, um die Aufgabe zu verstehen. Diesen Effekt, mit dem normalerweise Eltern und Erwachsene Kleinkindern beim Lernen und Verstehen der Welt helfen, macht man sich so zunutze. Ein Vorteil bei der Kommunikation zwischen Roboter und Mensch, den man zumindest heute mit besserer Sensorik und besserer Technik des Roboters noch nicht ausgleichen kann.

Ursprünglich war der iCub nach der Vorlage eines noch kleineren Kindes geplant, herausgekommen ist ein Roboter, der in der Einschätzung zwischen zwei- und dreijährig rangiert. Der Grund ist, dass es Motoren und Getriebe in der Größe und gleichzeitig Leistungsfähigkeit, um den iCub zu tragen, damals noch nicht gab, weswegen man die Größenvorstellung anpassen musste.

Doch auch mit diesem Kompromiss ist der iCub ein wunderbarer Roboter geworden, der im besten Sinne ein langfristiges, europäisches Projekt ist. Die Robotik-Welt beneidet Europa um die langfristige, klare Strategie in der Robotik und der iCub zeigt, warum. Das Projekt lief fünf Jahre und ist seit nunmehr einem Jahr vorüber, aber der iCub macht munter weiter. Überall auf der Welt ist er im Einsatz, wie stetig neue Videos auf Youtube beweisen. Neben den einzelnen Experimenten der (hauptsächlich europäischen) Forschungsinstitute, laufen über die nächsten Jahre weitere große Projekte, die den iCub nutzen und weiterentwickeln: iTALK, Robotdoc, AMARSi, … um nur drei der großen aktuellen Projekte zu nennen.

Bericht über den iCub

Bericht von der Automatica 2010

Die Automatica, internationale Fachmesse für Automation und Mechatronik in München war auch in diesem Jahr wieder eine spannende Technologie-Schau. Wenngleich etwas kleiner als vor zwei Jahren, zeigten sich wieder dichtgedrängt in vier Hallen Hersteller und Forschungseinrichtungen der Automation, Mechatronik und Robotik.

Einzelne Teile der Messe waren für mich weniger interessant, das sind vor allem die Bereiche zur Förderungstechnik und klassischen Industrieautomatisierung:
Förderbänder, Rollen, Räder, Notausschalter und Warnleuchten. Die Hallen zur klassischen Industrierobotik habe ich mir wiederum gerne angesehen. Hier zeigen die großen Industrierobotik-Hersteller auf beeindruckenden Standflächen ihre Roboter. Von kleinen, schnellen Robotern bis hin zu den großen Kolossen. In den letzten Jahren, beginnend mit den KUKA Titan (dem ersten mit einer Tonne Traglast), werden dazu gerne Roboter ausgestellt, die ganze Fahrzeuge oder Fahrzeugkarossen live durch die Halle stemmen.

Hier war in diesem Jahr der Hersteller Fanuc in besonderem Maße präsent. Nicht nur durch die zahllosen Hostessen, die stets in großer Zahl in leuchtend gelben Kleidern um den Stand und durch die Hallen schwirrten. Sondern auch durch einen Giganten, der von einem Fanuc-Partner ausgestellt wurde. Die Traglast des Roboters war am Stand nicht direkt zu erkennen und ich konnte beim Vorbeigehen leider auch keinen Ansprechpartner antreffen. Die Tatsache, dass jedoch allein der Greifer, den der Roboter durch seinen Arbeitsbereich wirbelte, ungefähr so groß war, wie sonst manch ein Industrieroboter der Konkurrenz, sprach Bände. Eine wahrlich imposante und furchteinflößende Maschine.

Das CoR-Lab, und damit auch ich, war als Aussteller in der Halle A2 untergebracht. Halle A2 war hauptsächlich der Robotik verschrieben, weswegen wir dort umgeben von der Konkurrenz 1 aufgestellt waren. Mit in der Halle und in Sichtweite fanden sich so zum Beispiel das KIT (Karlsruhe Institute of Technology), das DLR (Deutsches Zentrum für Luft- und Raumfahrt) und viele weitere Prominenz der deutschen Robotik-Forschungslandschaft.

Wir hatten einen gemeinsamen Stand mit dem Excellenzcluster CITEC, ebenfalls von der Universität Bielefeld, und damit sozusagen einen gemeinsamen Stand zur Forschung in der Mensch-Maschine-Interaktion. Zu unserem Stand fanden einige interessierte Besucher, unsere Demo lief alle Tage stabil und kam dem Eindruck nach gut an. Die Qualität der Kontakte, die wir auf der Messe geknüpft haben, war für uns alle auf jeden Fall in höchstem Maße erfreulich. Einige Vertreter aus der Industrie, die an unseren gezeigten Fähigkeiten interessiert sind und in nächster Zeit konkrete Anwendungsszenarien mit uns besprechen wollen.

Natürlich kamen nicht nur Industrievertreter, sondern auch die Konkurrenz 2 sondierte sich. Bisweilen beliebt auf solchen Messen ist es seitens der Institutsleiter und Professoren, das Namensschild abzunehmen in der Hoffnung, unerkannt einen Doktoranden auflaufen zu lassen. Nicht um zu spionieren, sondern um mit dem eigenen Fachwissen die Geschichte zu hören, die auch der gemeine Besucher hört. Als Doktorand muss man in solchen Fällen auf der Hut sein. Das Gespräch beginnt entspannt wie mit jedem anderen Messebesucher, bis sich im Laufe des Gesprächs herausstellt, dass der Gegenüber von dem, was man dort erzählt, im ungünstigsten Fall mehr Ahnung hat.

Ähnlich ist es mir in diesem Jahr passiert. Nicht die Konkurrenz, sondern Günther Schreiber persönlich, am Deutsches Zentrum für Luft- und Raumfahrt sozusagen Vater des Leichtbauarms, kam an den Stand. Eine kompetentere Person bezüglich des Roboters, den wir für unser Szenario als Forschungsplattform einsetzen, gibt es wohl nicht. Zu dem Zeitpunkt war ich allein am Stand und bemerkte erst zur Mitte des Gesprächs, mit wem ich es zu tun hatte. Es lief aber alles erfreulich und in dem Gespräch mit ihm habe ich sogar einige Neuigkeiten zur weiteren Entwicklung des Leichtbauarms erfahren können.

Im Folgenden kamen noch Personen vom KIT, weitere Interessierte vom DLR, Wissenschaftler vom Münchner Exzellenzcluster CoTeSys und viele mehr zum Stand. Allesamt angenehmerweise ein interessierter Austausch und Plaudern unter Kollegen. Und als dann die DLR-Prominenz Patrick van der Smagt an unseren Stand kam, war zum Glück unser Institutsleiter ebenfalls anwesend, so dass auch Fragen zum übergreifenden Forschungsplan beantwortet werden konnten.

Dass auch meine ehemaligen Kollegen aus der Robotertechnologie-Gruppe der Siemens-Forschungsabteilung aus München mal vorbeischauten, hat mich zudem gefreut. Abends habe wir dann natürlich auch das schöne Wetter genutzt, um in gemeinsamer Bielefelder, Münchner und Dortmunder Gruppe bei Leberkäs und Bier Kontakte zu pflegen und Robotik-Neuigkeiten auszutauschen. Ein toller Abend.

Insgesamt war es eine schöne Woche, die allerdings auch viel Energie gekostet hat. Die vielen Gespräche, das konstante Präsentsein in Kombination mit den vielen durchgearbeiteten Nächten im Vorfeld kosten viel Kraft. Aber es hat sich gelohnt.

Und in einem der nächsten Beiträge werde ich schreiben, was fachlich zu erfahren war und welche Hinweise auf die deutsche Robotik-Zukunft auf der Messe zu finden waren. Sowohl aus dem Gespräch mit Günther Schreiber als auch das, was das DLR als Blick in die nahe Zukunft zugelassen hat. Der könnte nämlich – so er denn zutrifft – einen Major Impact bedeuten und atemberaubende Resultate hervorbringen. Und wer in Deutschland sollte dazu bessere Möglichkeiten haben, dies auch wahr zu machen, als das DLR?!

Mehr dazu folgt.

Jetzt, da die Kommentarfunktion im Blog endlich wieder funktionstüchtig ist, freue ich mich auch wieder über Kommentare. Kann vielleicht einer der Blogleser die Automatica aus Besuchersicht zusammenfassen?