Jürgen hat jetzt – neben der zurzeit wieder mal auf Eis liegenden Arbeit am EPSON Industrie Roboter – das LIDAR (LASER-Radar) unseres Bodenstaubsaugers für unseren Besuch sichtbar gemacht. Dafür hat er das relativ einfach zugängige Betriebssystem des Staubsaugers (der automatisch einen Raum ausmisst) angezapft und stellt die Radarechos auf einem Bildschirm dar. Und das sieht recht ansehnlich aus, ähnlich wie so ein Radar auf einem Flussdampfer. Das bisherige Ergebnis reicht ihm aber noch nicht und anscheinend hat er schon eine Idee, wie er das dargestellte Bild noch verbessern kann.
LIDAR-Signale, betrachtet von oben. Oberkante im Bild entspricht der Vorwärtsrichtung des Roboters. Der Roboter sieht vor sich einen rechtwinkligen Gegenstand, dessen 90°-Winkel gerade auf die Vorderkante des Roboters zeigt.
Die Lücken ohne Signale entstehen durch Kunststoffstreben im LIDAR-Aufbau. Hier, also in dieser Richtung, ist der Roboter blind.
Jürgen hat die Anzeige inzwischen verbessert. Aber es gab für Nichtmediziner immer noch erhebliche Probleme, die Anzeige zu interpretieren. Mediziner sehen ja auf einem Rhöntgenbild eine Anomolie, wo wir Laien nur a few shadows of grey erkennen.
So habe ich mir überlegt, was denn der Saugroboter eigentlich mit seinem Radar erfassen soll: einen Raum. Was liegt also näher, als ihm einen solchen zu bauen. Drei Bretter reichen, und schon erkennt auch der Laie diesen auf dem Bildschirm als ein rechteckiges Gebilde. Und wenn er in diesen "Raum" tritt, dann sieht er sogar seine Beine als Hinderniss vor der "Wand".
Der Roboter schaut in das Modell eines Zimmers. Auf dem Tisch darüber steht ein kleiner Labtop, auf welchem den Raum dann abgebildet wird, als ein Rechteck.
Das Abbild des Modellraumes auf dem Bildschirn. Die dünne blaue Linie links stellt die runde Seite des Roboters dar. In Richtung der glatten Seite rechts sehen wir den "Raum" als Rechteck. Das vordere Brett (rechts auf dem Bildschirm) ist etwas kürzer als die Seitenbretter.
Besser versteht man die Sitution, wenn man die Anzeige um 90° dreht. Nun zeigt die Frontseite des Robotors auf uns zu (nach unten auf dem Bildschirm). Das von Jürgen verwendete Programm Python mit pyturtle (Derivat der einstigen LOGO Programmiersprache) verwendet leider eine andere Raumorientierung als unser Roboter.
Man erkennt sogar, dass die Seitenbretter begrenzt sind und die Strahlen nach rechts und links in das Museum gehen
Ein "Riese" steht nun im "Raum", seine Beine sind nicht geschlossen, denn der Strahl geht zwischen ihnen hindurch.