…und er loggt doch.

Nachdem ich gestern nun die Dose des Neo geöffnet habe, gab es nichts mehr zu verlieren.

Da die Leiterbahn zum (de-)aktivieren des externen Flashs auch unter dem GNSS-Chip mit Masse verbunden ist, muss der erst einmal runter. Ich habe zwar schon einen BGA mit knapp 1200 Balls und extremer thermischer Masse erfolgreich getauscht, allerdings mit entsprechendem Equipment. Bei Tausch von kleinen QFNs habe ich mich bis jetzt aber erstaunlich blöd angestellt. Entweder zu viel Flussmittel oder zu viel Lötzinn. Dabei tanzt der Chip beim Erhitzen lustig vor sich hin, senkt sich aber nicht richtig ab. Dann ist ein Re-Rework fällig. Schlecht fürs Material aber meistens klappt es.

Aber zuerst muss der IC runter. Mit Heißluft bei etwa 380-400 °C und niedrigem Luftstrom (damit es keine anderen Bauteile wegpustet) um die Bauteile kreisen um die Komponenten nicht zu schnell zu erwärmen. Kurz nachdem das noch vorhandene Flussmittel verflüssigt, sieht man auch eine leichte Glanzveränderung am Lötzinn – der „sweet spot“ zum Herunterpicken der Bauteile ist kurz danach.

Nach etwas Geduld zum Abkühlen der Leiterkarte sieht man, dass nur ein einziger verdammter Pin mit der Massefläche verbunden ist. Man muss nicht raten, welcher das ist:

Mit etwas Flussmittel und Entlötlitze kommt das bleifreie Zeug zunächst runter, um es anschließend mit einer dünnen Neuauflage Sn60Pb40 zu ersetzen. Dabei habe ich den Pads außenherum mehr Zinn gegeben als der Massefläche unter dem Chip. Natürlich darf das Auftrennen der Masseverbindung zu Pin 29 nicht fehlen. Wer den Unterschied zwischen bleifrei und bleihaltig nicht kennt: Bildvergleich – bleifrei (oben) ist ziemlich matt, bleihaltig glänzt deutlich stärker:

Zwischen dem Verzinnen und wieder Bestreichen mit Flussmittel einmal mit Isopropanol waschen – Beim Ent-, Ver- und wieder Entzinnen entsteht Zunder und manchmal backt das Flux fest – das will man nicht unter Bauteilen haben. Anschließend ist der Chip dran, der ebenfalls vom Bleifrei-Lot befreit wird. Mit dopptelseitigem Klebeband auf dem Tisch bleibt er auch nicht am Lötkolben hängen.

Hier im Prozess: vertrocknetes Flux und noch nicht ganz verzinnte Pins. kleine Zinnkleckse auf der Massefläche (hier rechts oben) sollten entfernt werden, da sie den Lötprozess stören.

Nun kann der IC wieder platziert und verlötet werden. Wieder mit Heißluft mit wenig Pust und schön warm. Das Ergebnis ist gut aber nicht perfekt – der Käfer ist etwas verschoben, was aber kein Problem sein sollte:

Um vorab zu testen ob der Empfänger noch funktioniert, habe ich Pin 29 wieder gebrückt und das Modul mit Strombegrenzung (!) an den PC angeschlossen. Alles kommt hoch und nach ein paar Minuten habe ich einen GPS-Fix. Zu Glonass-Empfang lässt sich das Teil aber nicht bewegen, vielleicht aufgrund des fehlenden Shieldings?! 😉

Ok, Grundlegend funktioniert es also, aber wird der Empfänger auch mit externem Flash spielen? Ich konnte einen QSPI-Flash von Winbond ergattern. Mal schauen, ob es funktioniert.

Laut Hardware Integration Manual des UBX-G7020 (!) ist die Anschlussbelegung wie folgt (ob sie auch mit dem M8030 funktioniert?):

  • PIO0 (25) -> DI/IO0
  • PIO4 (26) -> CLK
  • PIO2 (27) -> !WP/IO2
  • PIO1 (28) -> DO/IO1
  • PIO5 (29) -> !CS
  • PIO3 (30) -> !HOLD/!RESET/IO3

GND sollte klar sein, Vcc habe ich aus Ermangelung anderslautender Tatsachen einfach an die Versorgung des Chipsatzes geklemmt.

Wieder ans Netzteil mit Strombegrenzung geklemmt: Keine Auffälligkeiten – was aber noch nicht heißt, dass es auch funktioniert. Die Wahrheit erfährt man erst, wenn man den Speicher nutzen kann, also ran an den PC und u-center wieder öffnen. Die Firmware findet sich – im Gegensatz des vollen Datenblatts – auf der Website von u-blox. Nach Anstoßen des  Updates und nicht ganz einer dreiviertel Minute warten liegt schon fast ein NEO-M8N auf dem Tisch (wären da nicht die Fädeldrähte):

Nun funktioniert auch das Logging – Mission accomplished! 🙂

u from the blox

Ich wollte schon immer mal mit GNSS-Modulen von u-blox arbeiten. Mittlerweile liegen auch ein paar Module herum. Beim „aktuellsten“ sollte es ein NEO-M8N werden, hauptsächlich, weil es relativ stromsparend in den internen Flash loggen kann und auch ansonsten relativ viel zu bieten hat.

Da die Module zwar direkt vom Hersteller erhältlich, in kleinen Stückzahlen aber sehr teuer sind, ein Blick auf eBay. Mit Antenne, kleiner Leiterkarte und und Versand mit dem Namen „GY-GPSV3-NEO“ gibt es sie schon für um die 12 Euro, also her damit! Bis es der Empfänger aus China hierher geschafft hat dauert zwar 4-8 Wochen, ohne besonderen Leidensdruck kann man das aber gut abwarten.

Packung auf und mit einem USB<>UART-Adapter an den PC – nach kurzer Zeit gibt es einen Fix und ich kann zusehen, wie die Position im Umkreis von ein paar Metern umher eiert, so weit, so gut.

Als ich in u-center (der Software zum Testen und Konfigurieren der Empfänger) Logging testen wollte passierte – nichts.

Ok, vielleicht ist eine alte Firmware drauf. Es gibt eine neuere, diese lässt sich aber nicht flashen, auch mit verschiedenen Einstellungen. Hmpf. Bin ich einem Fake aufgelaufen?

Wie sich herausstellt: ja!

Schaut man sich das Label auf dem Modul an, fällt auf, dass das Firmenlogo ausgefranst und alle runden Symbole nicht wirklich rund sind. Die Schrift passt ebenfalls nicht. Hmm, warum hat das Modul auf der eBay-Seite eigentlich die genau gleiche Seriennummer? Ist das die Nummer für die gesamte Serie?!? Klickt man sich durch die Google-Bildersuche sticht ins Auge, dass alle Module eine Datamatrix haben. Mein Modul dagegen hat einen QR-Code. Was steht da eigentlich drin? Kurz mit dem Handy gescannt: „NEO-6M-0-0001 […]“ – ich dachte, das wäre ein M8N? Nanu? Gibt man dem Modul Strom, nachdem es per UART am PC angeschlossen ist, bekommt man Infos vom Bootloader. Dort steht wiederum M8:

$GNTXT,01,01,02,u-blox AG - www.u-blox.com*4E
$GNTXT,01,01,02,HW UBX-M80xx 00080000 *43
$GNTXT,01,01,02,ROM CORE 2.01 (75331) Oct 29 2013 13:28:17*4A
$GNTXT,01,01,02,PROTVER 15.00*01

eBay-Käuferschutz zum Glück bekomme ich, nachdem mich der Händler dann doch nochmal versucht abzuziehen („Bitte den Fall schließen, damit wir das Geld auszahlen können“ – ja ne, is klar), kam das Geld zurück. Aber was nun mit dem Modul? Richtig nutzlos ist es nicht, aber doch irgendwie – weil es eben die Funktionen, für die ich es gekauft habe, nicht kann.

Aber wenn da schon ein M8 drin ist, dann sollte das doch grundsätzlich funktionieren. Gleichzeitig wäre auch interessant, was da überhaupt drin ist. Im Forum von u-blox konnte ich zumindest ein Foto mit Original und Fälschung finden. Auf dem Original sitzt ein 25Q16DV (QSPI-Flash) von Winbond, auf dem Fake nicht.

Also runter mit dem Kopf! Aber bitte so, dass es danach noch funktioniert.

Hier mal eine kleine und überaus dilettantische Collage des Shieldings von allen vier Seiten:

Am gleichmäßigsten geht es wohl runter, wenn man alles mit Heißluft erwärmt und dann den Blechdeckel abhebt. Bei meinen Fähigkeiten rutscht es in der Regel aber erst mal zur Seite und nimmt ein paar SMD-Komponenten bei denen man nie wieder herausfindet, wie sie mal drauf waren.

Nachdem das Shielding nur an ein paar Punkten aufgelötet ist, geht es auch mit dem Lötkolben. Lötzinn als Wärmebrücke auf das Blech, Schraubendreher in den Spalt einklemmen und anschließend erhitzen und vorsichtig hebeln. Leider lässt sich die Leiterkarte erstaunlich leicht delaminieren, hat es aber augenscheinlich ganz gut überstanden:

Kein Flash. In den Unweiten des Internets lässt sich keine Pinbelegung des M8030-KT finden. Wohl aber des Vorgängers G7020 (im Hardware Integration Manual, um zumindest ein Suchwort zu geben). Die Chips gleichen sich der Beschaltung ziemlich stark – warum sollte man auch ein bestehendes – durchaus komplexes – Design ohne Not ändern?

Wie auch immer, Pin 25-30 (rechts oben am Chip im Bild) sind IOs und werden – zumindest beim 7020er – für externen Speicher genutzt. Pin 29 definiert, wenn auf GND gezogen, dass nur der interne ROM verwendet wird. Die 3 Pins darunter legen in dieser Konstellation ein paar Konfigurationen fest. Das Bild im u-blox-Forum korreliert zumindest soweit man es erahnen kann mit dieser Information. Wäre nicht dieser dämliche Pin 29 mit der Massefläche verbunden. Bleibt zu hoffen, dass er das nur von außen und nicht auch von hinten ist. Ich befürchte aber, …

Ein Schnitt mit dem Skalpell später und „pieeep“ sagt das Multimeter – meh. 🙁

Ende für Teil 1.

MediaWiki 1.28.1

Die Media-Wiki-Installation hier ist jetzt nach langer Zeit wieder aktuell.

Einiges gefällt mir ganz gut, an anderen Dingen muss noch gearbeitet werden. Übergangsweise habe ich den von Wikipedia bekannten Multimedia-Viewer installiert, da es momentan keine Erweiterung mit Highslide Js gibt, die mir halbwegs gefällt (oder zumindest gut funktionsfähig ist).

Das wichtigste jedoch: Sollte irgendetwas auffallen, das nicht funktioniert oder komisch aussieht, bitte hier in den Kommentaren oder per Mail melden. (Vielen Dank schon einmal!). Allgemein gilt: Wenn jemand Fehler (technisch, inhaltlich oder anderweitig) findet, ich freue mich über jeden Hinweis!

Kein Funk ist auch keine Lösung

Die nRF24L01P sind beliebt und günstig, weshalb hier seit längerem auch ein paar Module mit den Chips herumliegen.

Getrieben durch das Vorhaben eine Wetterstation zu bauen habe ich zwei jeweils an einen Mikrocontroller gehängt.

Nachdem die Übertragung (endlich) funktionierte, ging es daran die Reichweite zu testen. Im ersten Einfach-Programm ließ ich im Sender jede Sekunde ein Paket mit Counter und den Werten des bereits angedengelten Luftfeuchte- und Temperatursensor senden.

Auf der Gegenseite lediglich eine LED, die bei jedem empfangenen Paket toggelt. Bei 1 Mbit/s und 0 dBm war schon im Treppenhaus schluss, ich hoffte aber noch, dass es im Garten noch bzw. wieder klappt, da quasi Sichtkontakt besteht. Nichts. Grmpf.

Laut Datenblatt gewinnt man mit 250 kbit/s gegenüber 1 Mbit/s 9 dB an Sensitivity, was ein wenig Quell der Hoffnung war. Leider hat das auch nicht so wirklich geklappt.

Um zumindest einen Erkenntnisgewinn zu haben, ging es in den Park nebenan um dort auszuloten, wie weit es überhaupt geht. Im ersten Versuch schaffte ich knapp 190 Meter im freien Feld und bei gut aufeinander ausgerichteten Antennen. Ohne Ausrichtung war bei etwa 70 Meter gerade noch zuverlässiger Empfang möglich.

Allerdings hatte ich keine Information, wie oft tatsächlich übertragen werden musste, um Daten von A nach B zu bekommen. Schließlich verwenden die Module Handshaking mit Retransmission. Eine Anzeige musste her. Also schnell das alte und zerkratzte Nokia-Display ausgegraben und angeschlossen. Der eingestaubte Code funktionierte auch fast auf Anhieb.

Da der Empfänger von sich aus nicht wissen kann, wie viele erfolglose Übertragungen es gab werden die Werte im Sender kumuliert in den Sendepuffer geschrieben und nach einer erfolgreichen Übertragung wieder zurückgesetzt. Auf dem Display sieht es dann wie folgt aus:

Ob es wirklich sinnvoll ist, die Temperatur und Luftfeuchtigkeit darzustellen, sei mal dahingestellt, aber warum wegwerfen, was der Sensor hergibt?

Neuer Tag, neues Glück? Mitnichten. Vielleicht lag es am Wetter, vielleicht an der Verdeckung durch Parkbesucher oder am Display – die Reichweite war niedriger. Zuverlässige Datenübertragung ohne Antennenausrichtung war bis knapp 55 Meter möglich, mit (und mit etwas Glück) etwa 85 Meter.

Die Verbindung zwischen geplanten Aufstellorten von Sender und Empfänger war nach wie vor nicht möglich.

Nächste Schritte? Am liebsten würde ich die nRF-Module verwenden. Die Software läuft und die Hardware ist schon da. Interessant wäre, wie sich die Antennen verbessern ließen. Ohne eine vernünftige Möglichkeit, die abgestrahlte Leistung oder das Stehwellenverhältnis zu messen wird es schwierig. Durch den Park laufen tut zwar gut ist aber nicht so richtig vergleichbar. Messequipment für solch einen Zweck zu kaufen steht in keiner Relation. Vielleicht muss ich mal mit ein paar bekannten HAMs reden.

Reibung

Ohmannohmann, damit hätte ich nicht gerechnet.

Die Installation vom Wiki hat schon länger ein Update nötig, 1.25 liegt auch schon länger auf dem Server, aber unbenutzt. Nun habe ich mich mal wieder dran gewagt. Die absolute Minderheit gab es aktualisiert im Repository von Mediawiki, die Mehrheit nicht. Zwar würde die Seite auch ohne die anderen Erweiterungen halbwegs funktionieren, aber wenn man sich einmal an Komfort gewöhnt hat, will man ihn nicht wieder abgeben.

Die Anzeige der aktuellsten WordPress-Posts habe ich selber mal gehackt. Das gibt es in dieser Form nicht zum herunterladen. Den Code habe ich auf die neue Extension-API angehoben und noch ein paar mehr Funktionen eingebaut. Nun muss man nur noch den Ort der Config-Datei und den externen Basispfad angeben. Über Parameter im Pseudo-HTML-Tag lassen sich Optionen mitgeben. Die Auswahl von Kategorien muss ich noch implementieren. Wenn das funktioniert, wird der Code freigelassen.

MathJax – schöne Formeln! Nur leider ist das Sammelsurium aus über 30000 PNG-Dateien eine Seuche. Aufgrund der Clustergröße macht das aus Netto 10 MB stolze 150 MB. Durch den Overhead von FTP dauert der Upload gefühlt Stunden, dafür dass es im Endeffekt nur von einer Minderheit genutzt wird (standardmäßig spuckt es entweder HTML oder SVG aus) – absoluter Bullshit. Also die ganzen Dateien in eine Zip geworfen und ein PHP-Script geschrieben, das sie – aufgerufen mit dem Pfad als Parameter – wieder ausspuckt. Die Javascript-Datei, die auf die Bilder linkt angepasst und fertig ist der Lack. Ja, Zip ist dafür nicht ideal aber gut genug, bis mir etwas besseres einfällt.

Dann wäre da noch Highslide. Was für ein instabiles Flickwerk – nicht Highslide selbst, sondern die Integration. Die Bilder werden über reguläre Ausdrücke aus dem fertigen HTML extrahiert, anhand des Dateinamens (oder Links) die „Vollversion“ ermittelt und dann mit search & replace (genau genommen regex replace callback) ersetzt. Das ist so ziemlich das inkompatibelste was man machen kann. Dementsprechend habe ich das bei jedem kleinen Update patchen dürfen. Jetzt will ich es – wenn möglich – ein bisschen eleganter implementieren. Zur Not von Null weg.

GeSHi Syntax Highlight. Aktuell noch das größere Sorgenkind. MediaWiki hat 2015 auf Pygments umgestellt. Schön für sie und vermutlich die Performance aber hier gibt’s leider kein Python. Richtigen Ersatz habe ich noch nicht gefunden. Aber die Suche geht weiter.

Vielleicht schaffe ich das Update ja bis zum Geburtstag von der Homepage Anfang April.

Übrigens, als Randnotiz: die Homepage ist teurer geworden. Lt. Hetzner durch den starken Dollar – org-Domains werden durch die ICANN verwaltet und dadurch in USD gehandelt. Statt 12,90 Euro sind es jetzt 15,35 Euro im Jahr. Bringt einen nicht um aber immerhin eine Steigerung von 19 %. Dafür könnten sie ja zumindest Cronjobs und/oder Python in den kleineren Tarifen freischalten 😉

Sei helle!

Die Verwandtschaft hat gebaut. Beim Rundgang ist mir aufgefallen, dass mein Cousin relativ viele Leuchten mit GU10-Halogenlampen hat. Auf die Frage, ob ihm das nicht zu viel kostet meinte er, dass das nur einen Cent pro Stunde ausmacht und es ihm deshalb relativ egal wäre. „Wenn er meint“, dachte ich mir.

Als ich in meine Wohnung eingezogen bin, gab es überall LED. Wo noch konventionelles Leuchtobst installiert war, wurde spätestens mit dem ersten Defekt modernisiert. Außer beim Kühlschrank, Backofen und Badezimmerspiegel bin ich mittlerweile komplett auf der Technologie und beim Stromverbrauch (obwohl der PC viel läuft) deutlich unter dem Durchschnitt meines E-Werkes.

Es hat mir dann doch keine Ruhe gelassen. Also raus den Rechner!

Aber zuerst einmal Vergleichsobjekte finden. Ohne eine Marke bevorzugen zu wollen, habe ich mir zwei vergleichbare Leuchtmittel von Osram rausgesucht:

Die LED ist zwar etwas heller, hat aber einen etwas schlechteren CRI, deswegen behandle ich sie in Sachen Lichtausbeute einfach mal gleich.

Bei einem Strompreis von etwa 28,75 ct/kWh (Quelle: Bundesverband der Energie- und Wasserwirtschaft e.V.), kostet die Halogen 1,4375 ct/h und die LED 0,1236 ct/h. Ja, recht hatte er – aber trotzdem lag er falsch. Pauschal hört sich „ein Cent“ wenig an, aber 11,6-mal ist dann doch eine andere Hausnummer, vor allem, da der Cent nur für eine Lampe gilt.

Ein guter Freund von mir hatte bis jetzt auch immer GU10-Halogen in seiner Wohnung. Bei seinem Umzug haben wir ihm nahegelegt, doch auf LED zu wechseln. Im Esszimmer hat er 4 Lampen, im Wohnzimmer 8 in der Leuchte stecken und zumindest letztere ist am Tag etwa 4 Stunden an. Rechnen wir doch einfach mal aus, was nur das Wohnzimmer in einem Jahr jeweils kostet. 4 Stunden täglich, 365 Tage im Jahr (Urlaub, Sommer/Winter außen vor gelassen) sind 1460 Stunden, also:

  • Halogen: 8 * 1460 h * 1,4375 ct/h = 167,90 Euro/Jahr
  • LED: 8 * 1460 h * 0,1236 ct/h = 14,44 Euro/Jahr

Das ist schon einmal ordentlich, allerdings noch nicht die ganze Wahrheit. Das Stichwort ist „total cost of ownership“. Lampen gehen kaputt und müssen hin und wieder getauscht werden. Die Produktbezeichnungen bei einem Onlineversandhaus eingehackt ergibt: Halogen im 2er-Pack für 5,49 Euro, die LED-Lampe einzeln für 5,99 Euro. Bei dem beispielhaften 1460 h Betrieb sind 73 % der Halogenlampen und 9,73 % der LED-Lampen fällig. Zusätzlich muss man dumm-statistisch gerechnet 5,84- (Halogen) gegen 0,78-mal (LED) pro Jahr auf die Leiter steigen. Rechnet man einfach mal 15 Euro Stundenlohn und 20 Minuten Einsatz (Neue Lampe kaufen, freischalten, Spannungsfreiheit feststellen, Leiter holen, Lampe tauschen, Wiedereinschalten, testen, Leiter aufräumen, kaputte Lampe wegwerfen), kommt man auf zusätzliche Betriebskosten von:

  • Halogen: (5,49/2 Euro + 20 min/(60 min/h) * 15 Euro/h) / (2000 h) = 0,0038725 Euro/h
  • LED: (5,99 Euro + 20 min/(60 min/h) * 15 Euro/h) / (15000 h) = 0,0007326 Euro/h

Und da ist die Gefahr von Arbeitsausfällen durch Unfälle noch gar nicht mitgerechnet 😉

Aber auch hier ist Halogen 5,3-mal teurer als LED. Aufs Jahr und Wohnzimmer gerechnet ergeben sich hier „Wartungskosten“ von immerhin 45,23 Euro (Halogen) bzw. 8,56 Euro (LED).

Unterm Strich kostet also nur die Beleuchtung des Wohnzimmers mit Halogen 213,13 Euro im Jahr, mit LED sind es lediglich 23,00 Euro im gleichen Zeitraum.

Natürlich ist in meiner Rechnung nicht der vollständige ökologische Fußabdruck, aber ich würde mal vermuten, dass die LED ebenfalls günstiger wegkommt, weil weniger produziert werden muss und weniger Müll entsteht.

Einen weiteren Punkt habe ich ebenfalls nicht berücksichtigt: Die Halogen-Lampe ist nach den 2000 Stunden kaputt, also bei 0 Lumen, bei der LED-Lampe gibt der Hersteller nach Nennlebensdauerende noch 70 % des originalen Lichtstromes an. Zwar nicht mehr ganz so knackig aber besser als nichts.

Ich fahre, also bin ich

Autonomes fahren ist in aller Munde, die meisten Hersteller sind aber eher zurückhaltend. Einzig Tesla ist innovativ, mutig oder dumm genug mit seinem „Autopilot“ vorauszupreschen und hat bereits einige Unfälle, viele beinahe-Unfälle und bereits  Todesopfer gefordert.

Im ersten Fall, weil das hauptsächlich kamerabasierte System unter schwierigen Lichtbedingungen einen querenden Lastwagen (was softwareseitig noch nicht unterstützt wurde) fälschlicherweise als Schild erkannt hat. Mobileye, der Hersteller der verwendeten Bildauswertungsplattform im Fahrzeug wies die Schuld von sich und beendete die Zusammenarbeit mit dem Automobilhersteller. Wohl aus Selbstschutz, denn auch andere Hersteller verwenden deren Systeme für Assistenzsysteme.

Die Bundesanstalt für Straßenwesen hat zumindest dem System im Model S als eine „erheblich Verkehrsgefährdung“ (keine Primärquelle gefunden) bezeichnet. Einfach mal die Zusammenfassung hinter dem Link lesen, das reicht. Man muss dazu sagen: der Verkehr in den USA ist sicherlich anders, Highways sind langsamer und zusätzlich sind die Geschwindigkeitsunterschiede zwischen den Fahrzeugen sicher niedriger. Bei fehlender Straßenmarkierung einfach dem Vordermann folgen (und bei dessen Einscheren nach dem Überholen das Fahrzeug nebenan abdrängen/rammen) ist allerdings mehr als stümperhaft.

Zumindest hat Tesla den Namen für sein System relativ gut gewählt: „Autopilot“, nicht „Auto(nomous)drive“. Ein Autopilot in der Avionik sorgt in aller Regel für eine stabile, gerichtete Fluglage und Kurs, nimmt dabei aber keine Rücksicht auf andere Verkehrsteilnehmer. Er nimmt den Piloten zwar Arbeit ab, ersetzt sie aber nicht. Obwohl die Systeme mittlerweile auch das Landen übernehmen können, müssen die Piloten aufmerksam bleiben, überwachen und wenn es sein muss eingreifen. Wie würden Passagiere reagieren, wenn sich so etwas im Cockpit abspielen würde?

Wie Piloten dürfen auch Benutzer des stark ausgebauten Fahrerassistenzsystems nicht die Aufmerksamkeit auf das Verkehrsgeschehen verlieren.

Das ist schwierig und verlangt umdenken. Ich war zwar noch nicht in einem so stark automatisierten Fahrzeug unterwegs, allerdings in welchen, die bei denen man auf der Autobahn schon fast loslassen könnte: Abstandsgeregelter Tempomat, Spurhalte- &  Seitenassistent, Schildererkennung und den ganzen anderen Schnickschnack.

Solange man sich auf der Standardautobahn in halbwegs absehbaren Situationen befindet, super entspannt und man fühlt sich sicher. Die einzige Frage, die ich mir mittlerweile stelle: wie gut ist die Illusion?

Der Abstandsregelautomat bremste mich aus, als in einer langgezogenen Linkskurve das vorausfahrende Fahrzeug links abbog (und deutlich langsamer wurd). Für die hinter mir  muss ich wohl wie der dümmste Fahrer aller Zeiten gewirkt haben. Die Straße frei, und der Vollpfosten in der dicken Karre bremst. Für das Radar war das aber plausibel, weil der Verkehrsteilnehmer noch vor mir war.

Die nächste, schon öfter erlebte Situation: Spurhalteassistenz in Baustellenbereichen mit gelben und weißen Markierungen und nicht optimale Sicht. Das Auto wollte den weißen Spuren folgen. Mein Lenkeingriff war noch nicht grenzwertig aber doch unangenehm. Mittlerweile mach ich das System in solchen Situationen aus – nur wenn es wirklich frei ist, mach ich etwas „thrillseeking“ – wird die richtige Spur diesmal erkannt? Nein. Ratsch. Auch spontanem Ausweichen (habe ich zum Glück noch nicht testen „dürfen“/müssen) wäre damit sicher ein „Spaß“: „oh, du verlässt deine Spur – moment, ich mach mal“. Blech oder im Zweifel Leben.

Von der Schildererkennung wurde ich immer wieder enttäuscht. Immer wieder wurden Aufhebungsszeichen nicht erkannt, Ortsschilder schon gleich gar nicht und das Display sagte 80 innerorts. Mit Verstand im Standby würde das immerhin 120 Euro und einen Punkt kosten.

Da ist mir der Seitenassistent noch am liebsten. Zumindest bei einer Marke. Ist ein anderes Auto im „Anmarsch“ und man setzt den Blinker, holt sich der Außenspiegel Aufmerksamkeit. Beim ersten Mal habe ich mich gewundert, wo denn der Blitzer stand. Ohne Blinker und Gefahr beim Ausscheren glimmen die LEDs nur. Sehr komfortabel, aber auch zuverlässig? Ich bin mir sicher, viele kommen irgendwann an den Punkt, an dem sie dem System sprichsprichuwörtlich blind vertrauen und keinen zweiten Blick wagen. Was, wenn in solchem Fall die Anzeige durch einen schlechten Kontakt ausfällt? Die Folgen können fatal sein.

Das waren jetzt nur drei ADAS-Systeme und auch nur eingeschränkt gültige Erfahrungen. Aber sie zeigen dass sie Aufmerksamkeit noch nicht ersetzen können.

Beim autonomen Fahren muss intensive Datenfusion stattfinden, sich einzig auf eine Informationsquelle zu verlassen wäre grob fahrlässig. Bliebe ein Blatt an einer Kamera kleben, wäre es plötzlich vorbei mit dem Selbstfahrer, genauso wie ein mitgenommener Vogel vor dem Radar. Auch können Sensoren ausfallen oder unbrauchbar Informationen liefern, wie GPS im Tunnel oder Kameras bei Nacht. Man darf aber au bei nicht außer Acht lassen, dass Daten bewusst oder unbewusst manipuliert werden können. Der übelste mir bekannte Fall ist, dass ein Sicherheitsforscher aus größerer Entfernung einem LIDAR ein Objekt in wenigen Metern Entfernung vorgaukeln konnte. Die Steinewerfer der nächsten Generation sind also mit Laptop und Laser bzw SDR unterwegs?

Zu den selbstgewonnenen Daten kommen noch (in aller Regel vorverarbeitete) Fremddaten: TMC, Karten (nicht umsonst haben sich die dt. Automobilhersteller zusammengetan und Here Maps gekauft) und X-to-Car-Kommunikation. Besonders letzteres dürfte meiner Meinung eine erhebliche Rolle spielen, um Verkehrs- und Streckendaten auszutauschen und dem Blechfahrer genügend Informationen für die Fahrt zu geben. Das Problem ist hier sicher das flächendeckende Vorhandensein entsprechender Kommunikationspartner, denn Weitblick und Urteilsvermögen ist etwas, das man Software nur nur sehr schwer beibringen kann.

Eine Firma, die sich in letzter Zeit intensiv mit Supercomputing beschäftigt, möchte autonomen Fahren auf Basis von künstlicher Intelligenz bzw. deep learning entwickeln. Das Problem ist hier sicherlich, dass das Verhalten nicht wie bei konventionellem Quellcode durchblickt werden kann. Zwar lässt sich das Verhalten durch Simulation bzw. Stimulation erfassen, man bekommt allerdings ein Beobachterproblem: alle möglichen Konstellationen können faktisch nicht abgedeckt werden. Zudem: was, wenn der KI (un-)absichtlich schlechtes Verhalten beigebracht wird? Oder was, wenn Visionen aus Hollywood Wirklichkeit werden und der „Ghost in the machine“ Menschen als Gefahr ihrer selbst erkennt? Nicht, dass ich neuronale Netze grundsätzlich für schlecht halte, es ist tatsächlich ein extrem interessantes Feld – nur habe ich ehrlich gesagt kein gutes Gefühl, mein Leben in die Hand eines künstlichen Gehirnes mit der Intelligenz eines 2-3-jährigen Kindes zu legen.

Auch bei den klassischeren entwickelten Systemen hätte ich als „fahrtüberwachender Passagier“ ein Problem: Man weiß nie so genau, was das Auto in seiner Umgebung erkannt hat, siehe meine ADAS-Erfahrungen von oben. Um ein besseres Gefühl zu haben, würde ich gerne wissen, was das Fahrzeug im „sieht“ und was es für die nächsten Sekunden plant. Die hierfür benötigten Daten sind vorhanden, eine entsprechende Visualisierung habe ich schon gesehen – aber nicht im Produkt für Kunden. Ich vermute, dass dies die Kontrollfunktion der Benutzer verbessert und eine bessere Akzeptanz bringen kann, da vermutlich viele um Kontrollverlust und ihre Sicherheit bangen.

Zum Thema Sicherheit (im Sinne von Safety) gab und gibt es eine von vielen noch nicht beantwortete ethische Frage: Darf man per Software entscheiden, wer bei einem unvermeidlichen Unfall stirbt? Das Szenario geht immer in die Richtung: Ein Fahrzeug fährt autonom, ein Kind rennt auf die Straße. Links ist eine ältere Person, rechts eine Mauer. Geradeaus weiter und das Kind stirbt. Links ausweichen bedeutet den Tod der älteren Person. Ein Manöver nach rechts würde zwar die die beiden Passanten retten, aber die Insassen opfern. Die Robotergesetze funktionieren hier leider nicht. Es gibt verschiedene Vorschläge, von Statistik (wer hat die besten Überlebenschancen) über Philosophisch und ethisch bis zum Zufallsprinzip. Einzig Mercedes hat sich (meines Wissens) bis jetzt klar für den Insassenschutz ausgesprochen und opfert schwächere Verkehrsteilnehmer. Würde sich auch schlecht im Kleingedruckten einer Broschüre lesen: „In Ausnahmesituationen kann die Software unseres autonomous drive Ihren Tod herbeiführen, um das Leben anderer Verkehrsteilnehmer zu schützen“.

Der wahrscheinlich einzige Schritt, autonomes Fahren möglichst sicher und effizient zu machen, wäre den Menschen komplett aus dem Verkehrsgeschehen herauszunehmen. Würden Computer alle unsere Fahrzeuge lenken, könnten sie sich durch Vernetzung und Determinismus vermutlich zu einem perfekten Fortbewegungsmittel entwickeln. Vielleicht. Wenn wir es wollen.

Sichere Verbindung

Ich hab mir schon länger überlegt, ein Zertifikat zuzulegen. Aber egal ob extern zugekauft oder selbst-signiert, es hätte monatlich auffallend gekostet, u. a. weil mein Hoster eine eigene IP zuweist. Schlussendlich hielt ich es dann doch für weniger notwendig, verschlüsselte Verbindungen anzubieten, da hier – vielleicht etwas naiv gesprochen – eher weniger schützenswerte Informationen gibt.

Nun hat Hetzner eine Partnerschaft mit einem bekannten Antiviren-Software-Hersteller abgeschlossen und bietet zumindest für ein Jahr kostenlose Verschlüsselung für jeden an. Nach der Antwort meiner Rückfrage nach versteckten Kosten habe ich gleich das Zertifikat beantragt. Zwar kam beim ersten Versuch eine Fehlermeldung, aber

Finde ich richtig klasse und hoffe, dass das Angebot in der Form beibehalten wird!

Jetzt müssen nur noch ein paar Links zwischen Blog und Wiki angepasst werden, damit man in der jeweiligen Variante bleibt.

Piep

Meine Mutter hat einen Vogel. Also jetzt keinen mit Federn und so und er bzw. sie – weil es gleich zwei sind – gehen so ziemlich allen außer ihr so ziemlich auf die Nerven.

Nein, natürlich nicht wie ihr meint. Das hier ist gemeint:

vogel1

Sobald man dem Teil vorbeigeht, fängt es an zu zwitschern. Sehr laut und vor allem sehr lang. Naja, wenn nicht gerade die Batterien wieder leer sind. Obwohl der Vogel relativ groß ist, enttäuscht das Batteriefach:

vogel_batteriefach1

Zweimal LR44. Laut Wikipedia haben die stolze 145 mAh. Das Geflügel könnte locker zwei AAA-Zellen aufnehmen, immerhin mit ca. 1200 mAh nicht mehr so ganz un-ökologisch wie die Knopfzellen.

Nachdem AA-Zellen herumliegen und knapp doppelt so viel Energie fassen, sollten es diese werden. Also dem Tier eine Leine verpasst…:

vogel_batteriefach2

…und Batterien gelötet:

vogel_batterie

Batterien löten? Ja, das macht man nicht. Auf einer Skala zwischen Dumm und Ar…blöd ist es außerhalb der Skala bei: „Wie bescheuert kann man überhaupt sein?“ – Batterien mögen keine Hitze, schon gar nichts über 300 °C. Beim Löten können sie allerhand Unsinn machen – deswegen werden sie wenn dann mit Punktschweißen mit Leitern verbunden. Da wirkt die Hitze so kurz, dass sie gar nicht so richtig in die Zelle eindringen kann. Aber selbst das kann ordentlich schief gehen. Trotzdem habe ich es getan. Grund: Dummheit, einige Jahre Löterfahrung und eine geregelte Lötstation mit ordentlich Leistung und einer geeigneten Lötspitze. Die Lötdauer war etwa eine Sekunde und dadurch nicht ganz so „heiß“. Gut ist es aber trotzdem nicht.

Abschließend wurde das Akkupack noch in ordentlich Isolierband eingewickelt – das hässliche braune:

vogel2

Jetzt kann der Piepmatz wieder eine Weile schreien – mein Vorschlag, das Innenleben zu ersetzen und vernünftige Sounds zu verwenden fand leider wenig Anklang.

Lumix TZ-101 – der zweite Eindruck

Für den Jahresurlaub sollte es eine neue Kamera werden. Zur Auswahl standen u. a. die Canon PowerShot G7X bzw. deren Nachfolger und die Panasonic Lumix DMC-TZ101. Beide besitzen einen vergleichsweise großen Sensor, der zum einen gutes Rauschverhalten und zum anderen eine schöne Zeichnung verspricht.

Für die Canon spricht die lange Erfahrung in Sachen (Digital-)Kameras und dass die G-Serie für die noch-halbwegs-Kompakt-Klasse technisch in der Spitze spielt. Für die Lumix spricht die große Funktionsvielfalt und nicht zuletzt die etwas breitere Optik (das TZ steht übrigens für TravelZoom) und nicht zuletzt das recht gute Testergebnis auf dpreview.com. Das Objektiv der Canon ist etwas „schneller“ (1:1,8 – 2,8), also etwas lichtstärker als das der Panasonic (1:2,8 – 5,9). Allerdings, und das darf man nicht verschweigen, hat die Lumix einen deutlich höheren Brennweitenbereich. die G7X bewegt sich Kleinbildäquivalent zwischen 24 und 100 mm, bei der Lumix sind es 25 bis 250 mm. All die „Zoomfetischisten“ dürfen sich ihr aussagenfreies „x-fach-Zoom“ selber ausrechnen. Diese Zahl ist meiner Meinung mehr als aussagenfrei und trotzdem reiben sich alle daran. Wichtig sind die tatsächlichen Brennweiten. Ein Objektiv mit 500 bis 5000 mm Brennweite wäre zwar genauso ein 10-fach-Zoom einer der beiden Kameras, aber für die tagtägliche Fotografie völlig unbrauchbar. Außer man will für Portraits 50 m wegstehen. Aber das nur am Rande.

Bei Canon bin ich durch meine Erfahrungen mittlerweile etwas gespalten. Die Geräte kommen wertig daher, die Bedienung der Kameras ist IMHO durchdacht und flüssig möglich und die Ergebnisse – natürlich in Hinblick auf die Modellreihen und deren Zielgruppen – immer ausgewogen. Tja, leider hatte ich bei fast jeder Kamera, die ich hatte ein Problem oder zumindest sehr dämliche Unzulänglichkeiten. Man muss dem Hersteller zu Gute halten: der Support ist kompetent und alle Reparaturen waren schnell und unkompliziert. Zwei waren sogar deutlich außerhalb der Garantiezeit: Einmal, weil es eine Rückrufaktion gab, das andere mal, weil ich beweisen konnte, dass der Defekt nicht selbst verschuldet und innerhalb der Garantiezeit aufgetreten ist.

Trotzdem sollte es dieses Mal keine Canon werden. Vielleicht auch als Blick über den Tellerrand.

Ecken und Kanten lassen sich nie so ganz vermeiden, Canon, Nikon und die anderen großen haben sie bereits mit Erfahrung geschliffen, Panasonic ist noch nicht ganz so lange im Kamerageschäft – was aber nicht unbedingt negativ sein soll. Erfahrung kann konservativ machen.

Einige Features der Lumix haben laut Datenblatt Alleinstellungsmerkmal. Sei es ein großer Brennweitenbereich, 4K-Video, Postfocus, extrem schneller Autofokus, Preshot, mehrere frei belegbare Tasten, künstlicher Horizont, etc.

Was man am Gerät wirklich hat, merkt man aber erst, wenn man es in der Hand hat.

dmc-tz101

Verarbeitung: zoom it, press it, snap it, work it, jam it – break it?

Sie macht auf jeden Fall einen hochwertigen Eindruck – das Gehäuse besteht größtenteils aus Metall und obwohl sie für eine Kompakte ein ziemlicher Brocken ist, stört es nicht weiter. Der oftmals als zu glatt bemängelte Griffwulst hat mich bis jetzt nicht weiter gestört: die Handschlaufe ist eh immer dran und zum Fotografieren verwende ich überwiegend beide Hände. Nicht nur, weil es mehr Stabilität gibt, sondern auch, weil man den Objektiv-Ring einfach bedienen kann.

Nachdem ich etwas mit der Kamera gespielt habe, fielen ein paar Dinge hinsichtlich der Verarbeitung auf. Nicht direkt negativ, aber bei dem Preis der Kamera hätte ich es nicht erwartet: Drückt man auf bzw. eher etwas neben die linke Taste des „Steuerkreuzes“, knackt nicht nur diese, sondern auch das Gehäuse, was sich zumindest bei zwei Geräten nachstellen ließ. Es hört und fühlt sich an, wie ein taktiler Taster, ist aber tatsächlich das Gehäuse.

In Sachen Geräuschen ist auch das Objektiv etwas gewöhnungsbedürftig. Zoomt man heraus, fährt es immer wieder ein kleines Stück zurück. Mechanisch gibt es sicher gute Gründe dafür, das Geräusch dabei ist aber etwas eigenwillig bzw. unangenehm: Als würde die Mechanik über eine Kunststofffolie kratzen. Hoffentlich ist es nicht der berühmte Getriebesand.

Wo wir schon beim Objektiv sind: Sobald man in Menüs geht oder in die Bildanzeige wechselt, fährt das Teil aus und ein wie verrückt. Vor allem, wenn man die Kamera über WLAN fernsteuern will – beim Einschalten vom WLAN fährt es, nur um nach dem Verbinden sich wieder auszufahren. Auch wenn man kurz zwischen zwei Fotos einen Kontrollblick auf vorhergehende Bilder werfen will: zack, Objektiv drin.

Mechanisch nicht ganz so clever gelöst ist der Power-Schalter: es ist ein kleiner Hebel, den man zum Gehäuse hin bewegen muss, um das Gerät in Betrieb zu versetzen. Einen Test habe ich noch im Laden und nicht bei meiner Cam gemacht: was passiert, wenn das Objektiv beim Einschalten blockiert wird? Das kann ziemlich einfach passieren, indem man den Schalter durch grobes Drücken durch die Tasche hindurch in die Ein-Position bewegen kann. Besser wäre vielleicht, die Positionen zu invertieren – oder: an der Rückseite anbringen. Durch den elektronischen Sucher wäre ein Schiebeschalter deutlich besser geschützt.

dmc-tz101-power

Ich weiß, der andauerende Vergleich mit meinen ollen Kameras nervt, aber bei Canon wird auf Kollision getestet und das Einschalten im Falle dessen abgebrochen. Die Lumix hat so schnell nicht aufgegeben. Nachdem ich die Mechanik nicht länger quälen wollte, habe ich nach 2 Sekunden nachgegeben. Schön? Nein.

Zoom – Zooooom – Zoom (Bienchen zoom herum)

Halb Soft- und halb Hardware ist die Bedienung des Zooms. Bei der SX280 gab es an der Wippe zwei Geschwindigkeiten, was wohl dem großen Brennweitenbereich geschuldet war. Das fand ich sehr ergonomisch, weil man einfach besser dosieren konnte. Nun hat die TZ-101 ebenfalls einen relativ großen „Zoom“ und sie kann auch in zwei Geschwindigkeiten zoomen, aber nur über sehr kleine Steuerelemente auf dem Touchscreen. Leider etwas unpraktisch, da man keinerlei haptisches Feedback hat und sehr leicht andere Bedienelemente (Reiter) auf dem Touchscreen erwischen kann:

dmc-tz101-zoom

Der graue Streifen rechts am Display ist etwa 7mm breit, mein Daumen 20 mm. Es hilft, selbigen nicht mittig über den Slider zu legen, sondern über den Displayrand. Wirkt im ersten Moment nicht sehr intuitiv, der Touch ist aber empfindlich genug und man läuft nicht so schnell Gefahr, auf einen anderen Reiter zu wechseln. Wie man das besser machen kann? Gesten? Oder die Reiter entfernen und zwei Menüebenen?

<Songtitel mit Bezug auf Displays einfügen>

Neben dem angenehm hochauflösenden und hellen und klaren Rückbildschirm, den man leider, leider nicht klappen aber dafür mit den Fingern verschmieren kann, gibt es einen EVF. Die letzte Kamera mit Sucher war die Spiegelreflex – mit elektronischen Suchern konnte ich mich bis jetzt nie so richtig anfreunden. Ändert die TZ101 das? Vielleicht, aber vermutlich eher nicht. Grund 1: Ein EVF ist ein EVF ist ein EVF. Er gibt nicht genau das Licht weiter, was durch das Objektiv kommt. Zwar ist die Auflösung bei der Lumix wirklich gut, aber sie wurde für den Regenbogen-Effekt gekauft. Ähnlich wie frühere DLP-Beamer durch das Aufflackern der verschiedenen Farben wahnsinnig gemacht haben, wird bei dem Display hier ein monochromes LCD verwendet, das nacheinander von einer roten, grünen und blauen LED durchgeschaltet wird. Auflösung hui, Wahrnehmung bei schnellen Augenbewegungen pfui. Wobei ich anmerken muss, dass ich sehr empfindlich auf Flackern/Stroboskopeffekte bin. Der Touch bleibt übrigens bei deaktiviertem Bildschirm aktiv. Etwas gewöhnungsbedürftig, weil das Zielen schwieriger wird und ab und an drückt die Backe, aber es funktioniert. Die Umschaltung zwischen Bildschirm und EVF erfolgt übrigens über einen optischen Annäherungssensor, der mitunter ziemlich empfindlich ist und schon beim Annähern an die 4. Funktionstaste umschaltet. Besser wäre vielleicht gewesen, den Sensor auf die andere Seite des Suchers oder gleich in den Sucher einzubauen. Und noch Grund 2: Ich bin Brillenträger. Da macht ein Sucher generell weniger Spaß.

Soll ich den Akku laden, oder lass ich’s lieber sein? Ja, äähh nein – ich mein Jein!

In der Hardware gibt es noch einen Punkt, der mich wirklich stört: wie bereits im letzten Blogpost geschrieben, kann man die Kamera nicht über den USB-Port versorgen. Selbst das Laden des Akkus geht nur, wenn die Kamera abgeschaltet ist. Stattdessen muss man zur dauerhaften Versorgung einen Battery-Dummy verwenden. Warum nur?

Laut Anleitung genehmigt sich die Kamera in den meisten Anwendungsfällen um die 2,5 W. Das wäre sogar innerhalb der Spec eines SDP (Standard Downstream Port). mit einem Charging Downstream Port (CDP) könnte man – wenn ich mich richtig erinnere mit bis zu 1,5 A – sogar noch den Akku laden. Wer will, kann sich die Specs von usb.org reindrehen.

Touch me? Thrill me!

Abgesehen vom zweistufigen Zoom nutzt die Software den Touchscreen an einigen Stellen richtig gut, Touch-AF oder das Quick-Menu, in dem man alle Einstellungen der Status-Symbole vornehmen kann, ist clever gelöst. Klar, es ist eine Frage der Philosophie, mir hätte gut gefallen, wenn man per Touchscreen den zu verändernden Parameter auswählt und ihn direkt mit dem Daumenrad verändern kann. Stattdessen muss man mit dem Cursor erst noch nach oben navigieren. Aber das kann man verkraften.

Lost!

Geht man in das „normale“ Menü ist man um das Quick-Menu wirklich froh: die Fotoeinstellungen haben 8 Seiten in einer Ebene ohne richtige Anhaltspunkte. Bis man hier eine Einstellung gefunden hat, ist das Motiv mit hoher Wahrscheinlichkeit weg.

DMC-TZ101-MenueUm es noch einmal vor Augen zu führen, es gibt:

  • Bildstil
  • Filter-Einstellungen
  • Bildverhältnis
  • Bildgröße
  • Qualität
  • Empfindlichkeit
  • AF-Modus
  • AF/AFF/AFC
  • Messmethode
  • Seriengeschwindigkeit
  • 4K-Foto
  • Auto Bracket
  • Selbstauslöser
  • Helligkeitsverteilung
  • i.Dynamik
  • i.Auflösung
  • Post-Fokus
  • iHand-Nachtaufnahme
  • iHDR
  • HDR
  • Mehrfach-Belichtung
  • Zeitrafferaufnahme
  • Stop-Motion-Animation
  • Panorama-Einstellungen
  • Verschlusstyp
  • Blitzlicht
  • Rote-Augen-Reduktion
  • Maximaler ISO-Wert
  • ISO-Einstellstufen
  • Erweiterte ISO
  • Langzeit-Rauschreduktion
  • Beugungskorrektur
  • i.Zoom
  • Digitalzoom
  • Farbraum
  • Bildstabilisator
  • Gesichtserkennung
  • Profil einrichten

Ja, das frisst auch hier im Blog richtig viel Platz. Das ist aber Absicht. Zunächst einmal: Was sollen die unnötigen Abkürzungen? Bei den meisten Punkten wäre Platz, es auszuschreiben. An Speichermangel krankt es nicht, die Firmware hat > 70 MB. Wie auch immer, hier mal ein ein Vorschlag, wie man das Menü deutlich eindampfen könnte:

  • Bildformat
    • Seitenverhältnis (statt Bildverhältnis)
    • Bildgröße & Qualität
    • i.Auflösung
  • Farben/Stil
    • Bildstil
    • Filter-Einstellung
    • i.Dynamik
    • iHand-Nachtaufnahme
    • HDR + iHDR
    • Helligkeitsverteilung
    • Farbraum
  • AF
    • AF-Typ (statt Modus) -> Gesicht, Verfolgen, 49-Feld, etc.
    • AF-Modus -> Einmal/One-Shot, Bewegungserkennung, Kontinuierlich
    • Post-Fokus
  • Belichtung
    • Bildempfindlichkeit (statt Empfindlichkeit)
      • Maximaler ISO-Wert
      • Einstellstufen
      • Erweiterte ISO
    • Blitz (statt Blitzlicht) -> Modus, Sync, Korrektur, Rote-Augen-Reduktion
    • Rauschreduktion (statt Langzeit-Rausreduktion)
    • Mehrfach-Belichtung
    • Verschlusstyp
  • Objektiv
    • Digitalzoom + i.Zoom
    • Bildstabilisator
    • Beugungskorrektur
  • Zusatzfunktionen
    • Gesichtserkennung + Profil einrichten
    • Zeitrafferaufnahme
    • Stop-Motion-Animation
    • Panorama-Einstellungen

Würde man den durchscrollenden (und leider oft nichtssagenden) Hilfetext weglassen, würden alle Hauptmenüs auf eine Seite passen. Die Hilfe könnte man auf den Display-Button legen oder einen beliebigen anderen der vielen Knöpfe – Als Vergleich: Man kann über Touch, das Steuerkreuz und das Daumenrad durch die Menüs blättern. Alle Untermenüpunkte sind so gruppiert, dass man die vermutlich am häufigsten verwendeten auf der ersten Bildschirmseite hätte. Ob alles so Sinn ergibt, möchte ich jetzt allerdings nicht beschwören.

I will come back!

Was ich bis jetzt immer wieder erfolgreich nicht geschafft habe, war den Zurück-Button auf dem Touchscreen beim ersten Versuch zu treffen. Mitunter brauchte ich 3-4 Mal, bis die Kamera das gemacht hat, was ich wollte. Da man ihn doch recht häufig braucht: warum nicht einfach mechanisch ausführen? In manchen Menüs ist er noch ein bisschen versetzt. Natürlich nicht schlimm, aber zumindest etwas inkonsistent.

Turn around

Das Daumenrad und der Objektivring sind eine gute Idee. Leider IMHO nicht ganz zu Ende gedacht. Man kann eigene Funktionen auf die Drehgeber legen, allerdings nur global. Dabei hat mein bei Foto und Video unterschiedliche Ansprüche. Während ich beim Fotografieren die Belichtungssteuerung auf dem Daumenrad und das Verhältnis Blende/Belichtungszeit auf dem Objektivring. Bei Videos hätte ich manchmal gern die Focus-Steuerung auf dem Objektivring, oder je nach Situation auch die Belichtungssteuerung – weil der Objektivring nicht klickt. Auch in den Menüs oder dem Quick-Menu wird der Objektivring überhaupt nicht genutzt.

Bilder im Kopf

Fast hätte ich vergessen, über das Kerngeschäft des Geräts zu schreiben: Fotografie.

Endlich wieder eine Kamera, die primär Fotos im Seitenverhältnis 3:2 aufnimmt. Um eine aktuelle Werbung zu zitieren: „Ich hab dich so vermisst!“ – nein, wirklich, das ist das Format für Fotos – 4:3 ist pfui-pfui!

Was sehr schnell auffällt ist der Autofokus – und das meine ich so, wie es da steht. Das Teil rast. Neben dem einfachen Spot, den ich persönlich bevorzuge, gibt es noch zwei Mehrfeldmodi, Punkt, Gesichtserkennung und MF. Focuspeeking ist bei letzterem sehr schön gelöst, sobald etwas im Bild einen hohen Kontrast aufweist, leuchtet es blau, wobei sich die Empfindlichkeit umstellen lässt. Der Gesichtserkennung können Namen und Alter zugeordnet werden und funktioniert „creepy“ gut. Eine weitere Funktion, die ich mittlerweile nicht mehr abschalte, ist das Zebramuster bei Überblendung. Gerade in hellen Umgebungen unterschätzt man das gerne einmal und die durchlaufende Markierung weist einen schnell darauf hin. Touch-AF ist ganz praktisch aber ein Alleinstellungsmerkmal? Eher weniger. Etwas nervig ist, wenn man den Bildschirm versehentlich berührt hat, muss man für den Zurück-Button etwas warten, wobei der Menü/Set-Button etwas verkürzen kann.

Wenn man von Canon kommt, gewöhnt man sich sehr schnell an die etwas andere Bedienung, nur die oben schon bemängelten Menüs sind etwas nervig.

Video killed the radio star

Ein anderer Kaufgrund für die Kamera war die Videofunktion. 4K. Nicht, dass ich damit dauerhaft „produzieren“ würde, aber bei manchen Gelegenheiten ist es sicher ein sehr nützliches Feature. Und um gleich mal die Marketinglüge zu enttarnen: Es ist streng genommen kein 4K. Zumindest nicht ganz. Die Kamera nimmt in etwa UHD (3840×2178), aber keine Sorge: so ziemlich alle „4K“-Fernseher haben auch UHD. „Echtes“ 4K gibt’s im Kino.

Zunächst mal zur Grundfunktion. Die Kamera bietet die Aufnahme sowohl als MP4 als auch AVCHD an. Die Unterschiede sind im Endeffekt marginal, aber: AVCHD ist etwas konkreter für die Verarbeitungskette für den Videoschnitt spezifiziert und hat mit AC3 den etwas hochwertigeren Codec (MP4 hat üblicherweise AAC LC). Ein weiterer Unterschied, an den man sich gewöhnen muss: die Ablage der Dateien. Bei MP4 liegen sie direkt neben den Fotos, bei AVCHD gibt es eine feste Dateistruktur und die Dateierweiterung MTS. Wenn man es nicht gewohnt ist, fragt man sich also erst einmal, wo die Aufnahmen geblieben sind.

Neben der Qual der Wahl des Dateiformats kann man die Framerate, bei AVCHD Scanmode (Progressive oder Interlaced) und bei MP4 die Auflösung wählen. Bei der Bildrate kann man in der EU-Version der Kamera zwischen 24, 25 und 50 wählen und die Aufnahme ist auf 30 Minuten bzw. eine bestimmte Dateigröße (ich meine 4 GB) beschränkt – Danke EU. (und ja, ich hätte gerne noch etwas Geld draufgelegt, um eine Videokamera im gleichen Gehäuse zu bekommen) Zwar kann die Hard- und Software auch mit 30 bzw. 60 fps aufzeichnen, allerdings nur in der US-Version. Mir wäre letzteres lieber, weil flüssiger. Abgesehen davon: PCs arbeiten eh mit 60 fps und alle modernen Fernseher rechnen eh auf etwas > 60 Hz hoch. Wer mehr Frames braucht, kann auch das haben: 100 fps, dann aber nur mit FHD und im Menü versteckt (Whhyyy?)

Nach Internetangaben gibt es beim Killerfeature 4K eine Einschränkung: keine Bildstabilisierung, wobei nicht klar ist, ob es sich dabei nur um den Stabi durch Bildverarbeitung (dann 5 Achsen) handelt, oder ob auch der mechanische (2 Achsen) außer Kraft gesetzt wird. Nimmt man in Full-HD auf, wird auch die Bildneigung korrigiert. Es gibt zusätzlich einen „Überkopf-Modus“, speziell für diese unsäglichen Konzertfilmer, der auch stärkere Neigungen ausgleichen soll.

Eine zweite Einschränkung oder vielmehr Schlamperei: Bei Schwenks bzw. eher deren Ende gibt es reproduzierbar einen saftigen Ruckler bzw. eine unschönes Verschieben der Bildmitte. Das ist wirklich nicht schön und so richtig kann man es auch nicht umgehen, außer mal schaltet die Stabilisierung komplett ab. Beweisvideo gefällig?

Schön ist übrigens auch, dass der Touch-AF auch während der Videoaufnahme funktioniert. Leider kann man die Geschwindigkeit des Wechsels nicht einstellen. Für die meisten Situation dürfte die Geschwindigkeit aber angemessen sein.

Wie lange der Akku bei der Filmerei durchhält habe ich noch nicht gemessen. Ich denke, er wird ähnlich schnell leergesaugt wie bei anderen Kameras.

Nun noch kurz zu den Funktionen, die auf die 4K-Videoaufnahme aufsetzt: Preshot, Postfocus, Serienbilder. Zunächst: 4K ist größer als man denkt. Unterm Strich ca. 8 Megapixel (3504×2338 Pixel).

Bei aktiviertem Preshot wird permanent ein Video gedreht und im Ringpuffer gehalten. Löst man aus, wird der komplette Puffer weggeschrieben. Ich meine, es sind 30 Bilder pro Sekunde, habe aber gerade nicht im Kopf, wie lange aufgezeichnet wird. Anschließend kann man (muss aber nicht) ein Foto auswählen, das zugehörige Video wird aber auf jeden Fall behalten und man kann auch später noch Frames als JPG herausnehmen.

Beim Postfocus wird ein ein- bis zweisekündiger Videoclip mit sehr hoher Bitrate (100 MBit/s) aufgenommen und parallel der Focus durchgefahren. Anschließend kann man in der Wiedergabe ein Frame auswählen und exportieren. Dazu tippt man einfach den Bereich an, der scharf sein soll. Von der Benutzung ist das ähnlich wie bei Lichtfeldkameras, aber man hat eben den zeitlichen Faktor. Man fängt Bewegungen mit ein. Die Fotos fühlen sich etwas körniger an, was aber nur (m)ein Eindruck sein kann. Nicht bestreiten kann man aber, dass die Bilder durch einen Videocodec gelaufen sind und womöglich JPEGs in Sachen Qualität nachstehen. Leider wird keine „Schärfekarte“ abgespeichert, zumindest konnte ich auf der Speicherkarte und in den EXIF-Daten nichts dazu finden. Trotzdem scheint noch etwas in der Datei zu sein, zumindest springt bei der Wiedergabe in VLC kurz die Auflösungsanzeige und es sieht so aus als würde ein Übersichtsbild angezeigt werden.

Zur Serienbildfunktion muss ich wahrscheinlich nicht sagen: Wieder hohe Bitrate und anschließender JPG-Export.

Zwei weitere halb-Video-Funktionen hat die Cam auch noch zu bieten: Zeitraffer und Stop-Motion. Das Intervalometer bietet einen einfachen Rechner für die Dauer der Aufnahme an, nach Abschluss der Fotoserie kann man zudem die Fotos direkt in ein Video verwandeln. Bei meinem Testlauf mit 300 Fotos (10 Megapixel) hat die Aktion ca. 3 Minuten gedauert. Und ja, es war ein Sonnenuntergang. Der Trauerrand kommt von meiner Dummheit. Will man ein 16:9-Video daraus machen, sollte man auch in 16:9 fotografieren. Um etwas den Akku zu schonen, kann man während der Aufnahme das Display abschalten. Leider hält das die Kamera nicht davon ab, nach jeder Aufnahme die Rückschau des aufgenommenen Fotos einzublenden. Es wäre praktischer, wenn man diese gleich im Setup (vorübergehend) deaktivieren könnte.

Im Stop-Motion-Modus läuft optional ebenfalls das Intervalometer – oder man löst manuell aus. Leider gibt es hier keine Bewegungserkennung (bzw. eine Erkennung, ob die Hand aus dem Bild ist). Kern der Funktion ist die Überblendung der letzten Bilder, um einen besseren Eindruck über die Bildveränderung zu bekommen, was auch ganz gut gelungen ist.

Ok, Foto: check, Video: check, jetzt fehlt nur noch die App.

Über WLAN kann man sich mit der Kamera verbinden, um Bilder herunterzuladen oder sie fernzusteuern. Letzteres ist praktisch, wenn man selbst Teil des Bildes werden soll und entweder niemand anderes in der Nähe ist (dem man die Kamera anvertraut) oder man aus irgendwelchen Gründen nicht bei der Cam sein kann oder will. Die Videoübertragung läuft recht flüssig und hat eine relativ kurze Verzögerung Beizeiten werde ich das nochmal messen. Richtig kritische Dinge macht man darüber allerdings nicht. Sofern man seinen Handyakku strapazieren will, kann man über die App auch Geotagging betreibe, obwohl mir ein integrierter GPS-Receiver (z. B. statt des EVF) deutlich besser gefallen hätte.

Mein Fazit: Ja, sie hat Ecken und Kanten. An die meisten kann und werde ich mich sicher gewöhnen. Ob sie meine neue Lieblingskamera wird, kann ich noch nicht sicher sagen, aber sie hat gute Chancen.