Trackbacks für Serendipity mit PHP 8
Wednesday, 26. May 2021
Kleine Wasserstandsmeldung aus gegebenem Anlass.
Die Arbeit, um Serendipity mit PHP 8 kompatibel zu machen, ist noch nicht fertig. Aber sie ist weit vorangeschritten. Ich habe mittlerweile alle Backend- und Frontendfunktionen getestet und fast alle mit Standardtheme und vorinstallierten Plugins zum Laufen gebracht.
Ein wichtiger noch fehlender Baustein waren die Trackbacks. Die Kommentare bei Dirks Bloggeburtstag waren sicher der Anlass sie jetzt zu testen, auch wenn mir das gestern Abend gar nicht bewusst war. Es war eine Erinnerung, deretwegen ich den Test vorzog, an die ich in dem Moment nicht mehr direkt dachte. Ihr kennt das bestimmt.
Tatsächlich waren die Trackbacks kaputt. Die Korrekturen sind größtenteils Kleinigkeiten. Auf einem Server, der Warnungen verschluckt, würde wahrscheinlich auch jetzt schon alles laufen. Aber die Warnungen zu reparieren kann der Codequalität nur dienen und Warnungen werden eben nicht immer ausgeblendet, was dann Funktionen kaputtmachen kann.
Bei den Trackbacks speziell ist, dass der Browser ja gar keine Daten sendet. Das machen die Server unter sich aus, was im Zweifel schwer zu beobachten ist. Wir haben Logs, aber die zeigen bei PHP-Fehlern nur wo der Empfang abbricht. Um das richtig zu debuggen sendete ich den Trackback stattdessen mit curl:
curl -X POST -d 'type=trackback&entry_id=16&url=https://example.com/s9y_dev/index.php?/archives/19-trackbacktest-2.html&title=trackbacktest 2&blog_name=John Doe personal blog&excerpt=link2' https://example.com/s9y_dev/comment.php
So waren die Fehler schnell sichtbar und relativ einfach zu reparieren.
Es fehlt, das gleiche mit Pingbacks (ggf. via Wordpress) zu testen. Ansonsten müssten noch die restlichen Plugins und Themes durchgegangen werden. Ich habe mir vorgenommen, die mitgelieferten Plugins, die populären in Spartacus und die modernen Themes tatsächlich noch selbst anzusehen. Damit müsste eine PHP-8-kompatible Beta dann in Reichweite sein, wobei gerade die Plugins selbst bei Beschränkung auf die populäreren noch ein ziemlicher Brocken sein könnten.
The Mitchells vs. The Machines
Monday, 24. May 2021
Der animierte Film steckt voller Details, ist lustig und wird hochgelobt. Das Cinemawins-Video ist noch positiver als sonst, aber das sah ich nach dem Film, vorher war diese Einschätzung von ben_, die mich auch dazu bewog den Film anzusehen.
Mir hat er nicht gefallen.
Ja, oft witzig, technisch gut gemacht und voller Details. Aber er verlor mich, diesmal sogar uns beide, gegen Ende. Weil das Familienthema überbetont und tausendfach wiederholt wird. Da wird nicht einmal Vater und Tochter miteinander versöhnt, es passiert viermal und es nervt. Selbst die Stimme der Tochter wird unerträglich in diesen Momenten, dieses aufgesetzte "Ich spreche jetzt ruhig, weise und erwachsen".
Gut, ist es eben ein Film für Kinder. Aber eigentlich ist er dafür zu voll mit Kram, mit dem Kinder nichts anfangen können. Wie es eben so oft ist: Als Familienfilm soll er alle ansprechen, und wenn solche Filme gut sind kann man sie auch ganz ohne Nachwuchs sehen (Jumanji z.B.). Auch der Mitchells-Film hätte bis etwa zum letzten Drittel tatsächlich kein absoluter Kinderfilm sein müssen, wie ja auch Into the Spiderverse der gleichen Macher gut für Erwachsene geeignet war. Aber das Beharren aufs Wiederholen der Kleinkindemotionalität zerstört es – erklärbar nur mit dem Kinderfokus, alternativ halten die Filmmacher die Zuschauer für Idioten.
Bisschen schade. Denn wenn mit der gleichen Technik, Witz und Liebe zum visuellen Detail eine bessere Geschichte umgesetzt worden wäre hätte das echt ein guter Film werden können. Das Endspektakel eine Nummer kleiner machen um darauf achten zu können, dass die Geschichte in sich konsistent bleibt (wenn einmal etabliert ist wie stark ein Gegner ist wirft eine gute Story das nicht nach 10 Minuten um), und vor allem die Beziehungsebene mit einer einzigen Szene innerhalb der Handlung auflösen. Aber das ist leider nicht gelungen.
Joe Tex - You said a bad word
Sunday, 23. May 2021
Plasma und postmarketOS zeigen das Potential des Pinetabs
Wednesday, 19. May 2021
Bei meinem ersten Kontakt mit dem Pinetab funktionierte im Grunde noch nichts. Mein Fazit war entsprechend verhalten. So konnte ich mit dem Gerät wenig anfangen und mir auch nicht vorstellen, darauf oder dafür etwas zu entwickeln. Nach dem Artikel schaute ich ab und an mal nach Updates für Ubuntu Touch, aber da erschien nichts. Jetzt kam ich endlich dazu ein anderes Betriebssystem auszuprobieren und es ist wie von den Kommentatoren prophezeit: Das Pinetab steht gleich viel besser da.
postmarketOS als Rettung
Mein doch noch positiver Ersteindruck des Konzepts war mit der Zeit von der Unbrauchbarkeit der Software überlagert worden. Ohne den Blogartikel hätte ich ihn vergessen. Teilweise geht das nunmal fließend ineinander über: Wenn Youtube-Videos abzuspielen ruckelt, ist dann die Software schuld oder schlicht der Prozessor zu schwach? Im Fall des Pinetabs war die Software schuld, denn mit dem von postmarketOS (v21.03) bereitgestelltem Firefox funktioniert sowas. Wobei Firefox auch mit seiner besseren Performance und Adblocker generell das Internet nutzbar macht.
Plasmas Mobilvariante wirkt generell wie eine gute Oberfläche, aber es ist die Kombination mit postmarketOS und den zugänglichen Linuxprogrammen, die das Pinetab plötzlich wirklich brauchbar wirken lassen. Einen echten Editor zu haben ist Gold wert, dazu VLC und eben Firefox, schon ist das System nutzbar. Dazu kommt die nun funktionierende Tastatur. Wann immer die Toucheingabe zu nervig wird (was schnell passiert) wird eben die Tastatur angesteckt. Zusammen mit den Desktopprogrammen ist das Pinetab dann kein Tablet mehr, sondern ein kleiner Laptop. Das ist nicht nur nett, dafür könnte ich tatsächlich einen Nutzen haben.
Aktueller Eindruck der Hardware
Wird das Pinetab also ausschließlich von der Software zurückgehalten und ist ansonsten das perfekte Tablet/Laptopmischgerät? Nein, das nun auch nicht. Tablets sind für mich immer reine Multimediagerät gewesen (mit einer Ausnahme, als ich ein Notfallgerät für einen Urlaub brauchte), wofür das Pinetab sich nicht wirklich eignet, denn die Lautsprecher sind schlecht und zeigen nach hinten.
Zudem ist das Display an sich gut, aber die Displayhelligkeit etwas zu gering wenn sich die Sonne im Bildschirm blendet. Das schränkt die Nutzbarkeit als Multimediatablet noch weiter ein. Beides wird nicht durch Software gelöst werden können.
Bleibt der Laptopmodus. Hier könnten die beiden Hardwareschwächen eher ignoriert werden. Allerdings: So cool ich die Magnettastatur mit ihrem Faltständer auch finde, wabbelt sie beim Schreiben doch deutlich. Auch ist das Touchpad kein besonders gutes.
Das geht zur Not, ich könnte damit arbeiten, aber dass ich es nicht unbedingt ausprobieren will ist kein gutes Zeichen. Und ob die eingebaute Kamera nach Softwareupdates mal gut genug für eine Videokonferenz sein wird? Es fehlt auch schlicht ein Scharnier, um das Tabletlaptop zuklappen zu können, ohne das der obere Abschnitt auf die Tastatur kracht.
Dazu kommen generelle Qualitätsprobleme der in diesen Punkten dann prototypisch wirkenden Hardware. Wenn das Tablet aus ist will es manchmal nicht angehen, ich muss mehrfach – und unterschiedlich lange? – auf den Anschalter drücken. Vorhin wollte der Einrastmodus der SD-Karte einfach nicht greifen, bis es irgendwann doch ging. Auch die Abdeckung des SD-Kartenslots ist unglücklich gestaltet, zum einen schwer aufzumachen, zum anderen nur gesichert mit einem dünnen Plastikstreifen der garantiert irgendwann abreißen wird. Und dass das Ladegerät nicht USB-C ist: Schade; Dass es nichtmal Mikro-USB ist: Schwer verdaulich.
Diese frühe Version des Pinetab könnte sich auch mit bester Software am Markt nicht behaupten. Es fehlen ein paar Upgrades, eine Revision 2. Wobei solche Hardwarerevisionen tatsächlich in den Blogartikeln von Pine64 immer mal wieder erwähnt werden, ich habe nur nicht den Überblick auf welchem Stand die nächste ausgelieferte Variante sein wird.
Aktueller Eindruck der Software
Wobei die Software sowieso nicht fertig ist. Doch immerhin ist der Unterschied zur Anfangssituation mit der damaligen Version von Ubuntu Touch, dass ich damit nichtmal ansatzweise gewusst hätte wo man ansetzen müsste um das System fertigzustellen.
Bei postmarketOS mit Plasma sind die Macken klar und scheinen beherrschbar:
- Die Autorotation streikt wenn beim Start die Tastatur angesteckt war,
- Wlan verbindet sich nicht automatisch,
- die Pineingabe beim Login lässt sich nicht deaktivieren,
- im Firefox geht die Bildschirmtastatur nicht zuverlässig auf,
- es fehlen Icons in Programmen wie gedit,
- die Anzeige der Benachrichtigungen in komischen KDE-Fenstern ist hässlich.
In der Summe blockieren solche Probleme die komfortable Nutzung durchaus. Aber es ist nicht mehr zum Haare raufen. Zumal diese Fehler alle lösbar scheinen. Als Entwickler des Systems mit einem solchen Testgerät wäre mir klar, welche Probleme anzugehen sind. Dementsprechend ist es völlig möglich, dass Mobian und Phosh oder eine zukünftigen Variante von postmarketOS (ob mit Phosh oder Plasma) all diese Probleme lösen.
Das als erreichbar sehen zu können stimmt mich zuversichtlich. Nicht nur für die Zukunft des Pinetabs, sondern auch für Standardlinux als Alternative zu Android generell. Die Grundlage ist da. Mit einer soliden Grundauswahl an Apps wird das System als Alternative taugen. Und wie toll wäre es, neben Androidvarianten wie LineageOS und /e/ dann postmarketOS bei sustaphones aufnehmen zu können?
Fazit: Es wird
Die Softwareverbesserungen verwandeln das Pinetab. Vorher wurde der Reiz des Konzepts überdeckt von all den Problemen. Jetzt gibt es immer noch Macken, aber sie sind geringfügiger, sodass das Konzept wieder scheinen kann. So wird deutlich, was für ein nettes Gerät das Pinetab im Kern ist. Mit seiner ansteckbaren Tastatur und mit den außerhalb von Ubuntu Touch verfügbaren Linuxprogrammen wird es zum ultraleichten Laptop mit abnehmbaren Touchdisplay. Was ein Format ist, in dem GNU/Linux als Windows- und Androidalternative eine gute Nische haben könnte.
Das Pinetab was ich hier habe ist eindeutig noch eine Entwicklervariante, unfertig und mit Macken die es vom Massenmarkt disqualifizieren. Aber so wie es jetzt ist kann es die Rolle eines Entwicklergeräts durchaus füllen. Wollte ich jetzt eine NewPipe-Alternative für mobile Linuxgeräte schaffen wäre das Pinetab nun ein gutes Testgerät dafür. Damit erfüllt es völlig sein erklärtes Ziel. Und erfüllte es vielleicht auch vorher schon, wenn es neben dem Pinephone, dem Librem 5 und den als Entwicklungsplattform genutzten Androidgeräten dazu beitragen konnte, dass die Entwickler von Plasma und postmarketOS und den anderen Alternativen diesen Stand erreichen konnten.
Was genau wurde bei Audacity verkauft?
Monday, 17. May 2021
Das Softwareprojekt kann es nicht gewesen sein.
Der vermeintliche Verkauf von Audacity wirft weiterhin Fragen auf. Das kam jetzt wieder auf im Nachklang des Telemetrie-Debakels, als Audacity direkt nach der sogenannten Übernahme Telemetriedaten an Google und Yandex senden wollte. Doch was wissen wir über diese Änderung im Projekt überhaupt?
Was wurde berichtet
Caschy nannte es in seinem Blog eine Übernahme. Bei Audacity auf der Webseite wurde nur eine Mini-Nachricht gepostet, Audacity has just joined Muse Group. Das ist auch dort nur ein Zitat von Martin Keary (Tantacrul), der dort ein Projekt leitet und jetzt auch Audacity leiten soll. Er selbst hat dazu ein Youtube-Video veröffentlicht und das hat einen eindeutigen Titel: I’m now in charge of Audacity. Seriously.
Tantacrul kommt in dem Video positiv und überlegt rüber, interessiert am Projekt. Das ist nicht das Problem. Die Frage ist, wie diese Übernahme zustandegekommen sein soll. Er beschreibt das zu Beginn des Videos so:
Well, in short: Audacity has just joined Muse Group, a collection of brands that includes another popular open source music app called MuseScore, which I’m currently in charge of. And since things are going rather well at MuseScore, I was asked to step up and also manage Audacity in partnership with its open source community.
Was genau das ist, was auch bei der Audacity-Webseite als Zitat genommen wurde.
Was genau ist Muse Group? Sie beschreiben sich selbst auf ihrer Webseite. Es ist ein Unternehmen. Und in der Timeline steht auch, wie sie Audacity einordnen: Als acquired, also gekauft, oder zumindest unter der eigenen Kontrolle stehend.
Was, wie ich eingangs behauptet habe, nicht sein kann. Doch dafür müssen wir uns angucken, aus welchen Bestandteilen Audacity besteht und was davon kaufbar ist.
Audacitys Bestandteile als kaufbare Objekte
Ohne in irgendeiner Form bei Audacity involviert zu sein, ist das folgende mein Verständnis des Projekts.
Der Code
Die einfachste Variante bei einem proprietären Softwareprojekt wäre der Kauf der Rechte am Code, also dass jemand den Code einer Software und damit die Software selbst kauft. Doch das ist bei Audacity kaum möglich. Zuallererst, weil die Software unter der GPL 2 steht, wie die Webseite selbst verlinkt. Im Kern bedeutet diese Lizenz, dass jedem Nutzer der Software vier Freiheitsrechte zustehen:
- Sie zu nutzen wie man will, für jeden Zweck
- Die Software anzupassen
- Die Software weiterzugeben
- Die Software in veränderter Form weitergeben zu dürfen
Die GPL formuliert das anders und hat andere konkrete Klauseln bezüglich der Urheberauflistung etc, aber auf das läuft es hinaus.
Gleichzeitig hat die GPL die Klausel, dass abgeleitete Varianten der Software ebenfalls unter der GPL bzw kompatiblen freien Lizenzen stehen müssen. Was der Kernunterschied zu BSD- und MIT-Lizenzen sind, die insoweit "freier" sind, als dass bei ihnen die Freiheiten nicht für abgeleitete Werke gelten müssen.
Allerdings berührt die GPL nicht das Urheberrecht. Der Erschaffer ist weiterhin der Urheber. Das ist im deutschen Urheberrecht sowieso so, in den USA aber nicht, dort hat das massiv Bedeutung. Lizenzen wie die GPL nutzen das Urheberrecht, um die Rechte die sie einräumen wollen durchzusetzen.
Jetzt kann natürlich die Muse Group hingehen und das Urheberrecht kaufen. Bzw in Deutschland könnten sie die Verwertungsrechte kaufen. Allerdings stünde die Software weiterhin unter der GPL 2. Die Lizenz kann nicht nachträglich entzogen werden. Der Käufer hätte also Rechte an einem Produkt gekauft, das jedem Empfänger desselben umfassendste Rechte einräumt. Inklusive aller Verwertungsrechte, die bei proprietärer Software ein Käufer für sich beanspruchen würde, wie das Weiterverbreiten des Produkts zu einem beliebigen Preis bei zwingend offenem Quellcode.
Das komplette Urheberrecht zu besitzen könnte ihnen dann aber erlauben, neben Audacity unter GPL-Lizenz eine Variante unter einer anderen Lizenz zu veröffentlichen. Sogar unter einer proprietären. Solche Konstruktionen gibt es, sie sind nichtmal besonders unüblich.
Allerdings: Alleine auf Github werden 127 Mitentwickler gelistet. Bei einem so alten Projekt wie Audacity reicht der Quellcode noch viel weiter zurück als Github bekannt, die Liste ist in Wirklichkeit viel länger, endet Githubs Aufzeichnung doch bereits 2015. Es ist höchst unwahrscheinlich, dass bisher alle diese Entwickler ihre Urheber- bzw Verwertungsrechte an eine wie auch immer geartete bisher unbekannte Audacity-Institution übertragen haben. Denn zum einen ist diese Idee der Rechteübertragung bei FOSS-Projekten relativ neu. Zudem ist sie wahrscheinlich nicht über alle verschiedenen Rechtssysteme hinweg umsetzbar. Und außerdem finde ich dazu nichts in der Entwicklerdokumentation, während solche zu treffenden Erklärungen sonst normalerweise prominent erwähnt werden.
Es gab also höchstwahrscheinlich keinen einzelnen Ansprechspartner um den Code zu kaufen. Die Muse Group hätte mit jedem einzelnen Entwickler reden müssen, sie alle überzeugen und im Zweifel fürstlich bezahlen müssen. Unwahrscheinlich. Wenn das doch gelang bin ich beeindruckt.
Doch selbst wenn ich mich da vertue und seit zwanzig Jahren jeder einzelne Entwickler sein Urheberrecht nach US-Rechtssprechung auf eine natürliche Person oder ein Unternehmen übertragen hat: Selbst dann stünde noch die GPL. Und die kommerzielle Vermarktung einer solchen Desktop-Audiosoftware unter Doppelt-Lizensierung erscheint mir sehr schwierig.
Zusammenfassend: Rein praktisch war der Code und damit die Software nicht kaufbar, und selbst wenn dieser Kauf gelungen wäre hätte der Käufer in diesem Fall einer Desktopsoftware damit kaum praktisch verwertbare Rechte erworben.
Das Team
Manchmal ist bei Übernahmen gar nicht die Software das Ziel, sondern es sind die Entwickler, deren Arbeitsverträge gewonnen werden sollen. Auch das ist hier höchst unwahrscheinlich.
Zum einen passt es nicht zu dem Video. Was dort beschrieben wurde ist das Ziel, Audacity weiterzuentwickeln. Und das mit einem Ernst, Respekt und in einem Detailgrad, dass diese Ankündigung nicht das durchaus übliche Gelaber bei Silicon-Valley-Übernahmen zu sein scheint.
Zum anderen müssen dafür die Entwickler Teil einer kaufbaren Organisation sein. Gab es denn ein Unternehmen, das die Audacity-Entwickler beschäftigt hat? Ein solches Unternehmen wird zumindest weder auf Wikipedia noch auf der Webseite des Projekts erwähnt. Nein, Audacity wirkt wie die meisten FOSS-Projekte, bei denen die Entwicklung von wenigen Frewilligen getragen wird.
Von Paul Licameli zum Beispiel, der auch im obigen Video auftritt. Er ist zwar laut LinkedIn von einem audacity-Team beschäftigt. Dieser vermeintliche Arbeitgeber verlinkt aber nur zur Audacity-Webseite, die kein Impressum hat und keinerlei Unternehmensform auflistet.
Eine mögliche Konstruktion könnte sein: Es gab hier zwar kein Unternehmen. Aber es gab ein Team, das sich als moralischer Besitzer von Audacity gesehen hat. Und diese Entwickler werden jetzt von der Muse Group beschäftigt. Aber davon war bisher keine Rede. Und auch Paul hat bisher seinen Arbeitgeber auf LinkedIn nicht angepasst.
Und selbst wenn in irgendeiner Form die Kernetwickler gewonnen werden konnten: Selbst dann wäre Audacity selbst nicht Teil des Deals gewesen. Fortan Kernentwickler zu beschäftigen gibt in der Praxis Macht, aber es gibt dem Unternehmen am vorher geschaffenen keine Eigentumsrechte. Audacity wäre weiterhin rechtlich nicht Teil der Muse Group.
Intellectual Property
Intellectual Property (IP) gibt es eigentlich nicht, es ist eine Wahnsinnsidee bekloppter Kapitalisten. Aber okay, wenn es etwas als Idee gibt, dann existiert es eben doch. Und es gibt existierende legale Konstrukte, die so bezeichnet werden. Patente zum Beispiel. Es könnte eine Instutition geben, die mittelbar durch Audacity Patente besitzt. Audacity wurde 1999 an der Carnegie Mellon University gestartet und Universitäten sind berüchtigt dafür, solche diffuse Eigentumsrechte geltend zu machen. Vielleicht hat Muse diese Universität bezahlt, damit etwaige Ansprüche abgetreten wurden. Darauf gibt es aber keine Hinweise.
Ein anderes Beispiel für IP sind Marken (Warenzeichen). Und die sind hier wahrscheinlich im Spiel. Denn es ist auffällig, dass auf der Webseite von Audacity immer von Audacity® die Rede ist. Das ist sehr unüblich für nicht unternehmensgetragene FOSS-Projekte. Es sei eine registered trademark. Sowas wäre kaufbar. Und die Marke gibt es tatsächlich:
Dem Eintrag zufolge registriert von Dominic Mazzoni, einem der Gründer der Software, und jetzt im Besitz der uns bekannten Muse Group. Das einzige direkt greifbare Element im ganzen Puzzle, das gekauft werden konnte, wurde von der Muse Group tatsächlich erworben.
Nur ändert das nicht unbedingt viel. Denn die Marke zu besitzen bedeutet nur, die Marke zu besitzen. Es bedeutet nicht, zusätzliche Ansprüche an Quellcode oder an Loyalität der Entwickler zu haben; An dem Produkt, auf das sich die Marke bezieht.
Audacity wurde nicht verkauft
Mein Ergebnis ist, dass Audacity nicht verkauft wurde. Also nicht das Softwareprojekt. Es konnte nicht verkauft werden. Es gab keinen vorherigen klaren Besitzer und deswegen keine verwertbaren Eigentumsrechte.
Ich vermute es ist folgendes passiert: Die Leute im Audacity-Projekt und die Muse Group haben gesprochen. Und vielleicht waren die aktiven Projektteilnehmer auch wirklich daran interessiert, Audacity mit einer Firma zusammen zu entwickeln. Da könnten Absichtserklärungen abgegeben worden sein. Und an irgendeinem Punkt floss bestimmt sogar Geld. Aber alles, was damit praktisch gekauft werden konnte war die Marke Audacity.
Die Marke und damit das geflossene Geld gibt der Muse Group praktisch null Rechte. Sie könnten damit Forks der Software zwingen, einen anderen Namen zu benutzen. Aber es ändert nichts an den gewährten Freiheitsrechten via der GPL 2, nichts an den Eigentumsverhältnissen des Codes. Und auch nichts an der Machtstruktur im Projekt – außer praktisch, wenn sie die Adminrechte am Github-Projekt übertragen bekommen haben.
Muse Group kann aber natürlich trotz der fehlenden rechtlichen Bindung mit den FOSS-Entwicklern von Audacity zusammenarbeiten. Sie wollen Usability-Studien machen, scheinbar Usability als Prozess in die Entwicklung einbringen. Das könnte eine gute Sache sein.
Aber diese vermeintliche Übernahme gibt ihnen in Wirklichkeit wenig Macht über das Projekt. Muse hat wahrscheinlich nur eine fast wertlose Wortmarke gekauft. Nicht ganz wertlos, weil man ja mit einer so bekannten Marke doch irgendwie Geld verdienen kann. Aber doch fast wertlos, weil mit ihr kaum Kontrolle über das Produkt und Projekt selbst ausgeübt werden kann.
Nun frage ich mich: Wissen die das? Es ist zwar schwer vorstellbar bei einer Firma, die mit FOSS arbeitet, aber Fehler können immer passieren. Hatte die Muse Group vielleicht den Eindruck, wirklich das Audacity-Projekt zu kaufen?
Und: Wissen die Audacity-Entwickler, dass in Wirklichkeit weiterhin sie das Projekt kontrollieren könnten? Oder meinen sie wirklich, dass ihr Code und ihre Urheber-/Verwertungsrechte nun jemand anderem gehören?
Viel könnte hier auch einfach falsch kommuniziert worden sein. Vielleicht ist allen Beteiligten die Lage durchaus klar. Tantacrul könnte der Projektleiter des internen Audacity-Projekts bei Muse Group sein und das eigentliche Audacity-FOSS-Projekt gewillt, ihn mal eine Weile walten zu lassen. Geschenkter Usability-Arbeit sollte man nicht ins Maul schauen. Gekauft wurde nur die Marke, aber effektiv die Leitung aus Gutdünken eben auch überlassen, weil es sonst niemand machen wollte oder weil die Überzeugung da war, dass er das am besten kann. Wie es in einer Meritokratie eben passieren kann. Und als die Verlautbarungen dann erstmal missverstanden wurden hatte niemand Interesse daran, das sofort öffentlich auszudiskutieren.
Oder nur einer täuschte sich hier lautstark. Tantacrul schrieb ja selbst im Issue zur Telemetrie-Korrektur:
The first few questions are the ones most people want to know the answer to, I think. The only reason I'm not jumping on it right away is because I don't want to get any details wrong.
My role is product direction and design and I really want to publish a vision properly so it can be commented on more broadly. I'd prefer not to outline it all in text here.
I hope you understand. The issue I'm addressing in this discussion is super sensitive and I don't want to get anything wrong that might come back to haunt me. We are painfully aware there is a dearth of information and it is being sorting out.
Er hat also von dieser Übernahme gar nicht wirklich Ahnung. Wenn nur er missverstanden hat, wovon er jetzt tatsächlich der Leiter ist, wollte ihn vielleicht niemand blamieren.
Audacity wurde gekapert?
Wie auch immer: Ich bin ziemlich sicher, dass die Muse Group nicht wirklich der Besitzer des Softwareprojekts Audacity ist. Sie hätten dafür die urheberrechtlichen Verwertungsrechte aller bisherigen Entwickler kaufen müssen. Ganz vielleicht haben sie stattdessen eine Rechteabtretung der aktiven Kernentwickler und/oder die Absprache gekauft, ab jetzt das Projekt zu kontrollieren. Und wollen später mit proprietären Zusatzdiensten Gewinn erzielen. Das könnte funktionieren, wenn sie direkt oder indirekt Adminrechte auf der Webseite und im Github-Projekt haben und solange niemand mit ähnlicher praktischer Macht sie herausfordert, ist aber keinesfalls wasserdicht.
Der Kauf der Audacity-Marke wäre für eine solche Machtübernahme allerdings ein verwertbarer Baustein. Wenn das aber hier so gelaufen ist, dann ist es höchst bedenklich. Praktisch würde es bedeuten: Jedes Softwareprojekt kann von einer Firma gekapert werden, wenn die Firma alle Entwickler mit Adminrechten an der existierenden Entwicklungsstruktur (Github, Webseite) bestechen kann. Entwickler ohne solche Rechte hätten dabei kein Mitspracherecht. Nur bei der GPL könnten sie zumindest eine Lizenzänderung verhindern.
Ich könnte mich natürlich täuschen. Der Artikel ist auch deswegen so lang, weil ich im Laufe des Schreibens immer mehr Optionen gesehen habe, wie die Muse Group nun doch faktisch das Projekt kontrollieren könnte ohne der echte Besitzer zu sein. Ich bin daher gespannt, ob und wie sie die Übernahme erklären werden. Denn wenn es ein simples Kapern der Leute mit Adminrechten war: Dann stinkt die Aktion mehr als ich initial glaubte.
BETHESDA the Musical
Friday, 14. May 2021
It just works, it just works,
Little lies, stunning shows
People buy, money flows, it just works
Gutes fleischloses Fleisch, 2 Beispiele
Monday, 10. May 2021
Über die Pandemie hinweg mögen sich bei uns die Einkaufsgewohnheiten durch Essenslieferungen und Online-Supermarktbestellung verändert haben, aber etwas anderes hat sich nur verstärkt: Wie selten wir Fleisch essen. Das selten zu halten ist bei mir volle ideologische Überzeugung. Die Katzen hier im Haus zu haben führt zu deutlich vor Augen wie komplex und fühlend Tiere dann eben doch sind. Gleichzeitig esse ich Fleisch gerne, darauf weitestgehend zu verzichten ist ein echter Verzicht.
Entsprechend attraktiv finde ich Fleischersatzprodukte. Für ein alternatives Steak mag es leider noch nicht reichen. Aber für einfacheres Essen wie für einen Burger vielleicht doch. Gerade bei den Burger-Hacksteaks habe ich aber den Überblick verloren, welche Alternative taugen und welche nicht – außer, dass die Halloumi-Grillkäse-Alternative für mich immer geht, aber das ist etwas ganz eigenes und nicht fleischähnlich.
Daher hier kurz protokolliert zwei Produkte, die ich toll finde und die in meinen Augen zeigen, dass diese Industrie wirklich gute Fleischalternativen herstellen kann.
Da wäre das Cordon Bleu von Rügenwalder Mühle. "Auf Basis von Soja" steht drauf und obwohl vegan, meint man wirklich beim Essen sowohl Käse als auch Schinken im panierten Fleischstück zu haben. Klar, es ist immer noch nur ein Supermarkt-Produkt, aber wenn ich wählen müsste zwischen einem günstigen normalen Cordon Bleu und diesem hier, ich würde auch rein vom Geschmack dieses vegane nehmen. Und wenn man sieht wie oft es im Supermarkt einfach nicht vorrätig war sehe nicht nur ich das so. Gut mit oder ohne Gemüse samt Nudeln und Soße oder Ketchup als schnelles Mittagessen.
Das Cordon Bleu hatten wir schon oft im Haus, die nächste Fleischalternative erst einmal: Vegane Hackbällchen von iglo. Aber ich fand die richtig gut. Besonders die Konsistenz war klasse. Die Köchin zweifelte meinen Eindruck zwar an, dass sie sehr Fleisch ähneln. Aber sie hatten auf jeden Fall nicht diese Konsistenz von locker gepressten Gemüse, die andere vegetarische Hackbällchen sonst oft haben. Und auch beim Geschmack war von Erbsen nichts zu merken, was positiv gemeint ist. Zusammen mit gut gemachten Reis fand ich diese Hackbällchen super und ebenfalls wieder auf einem Niveau, wo ich sie Hackbällchen aus Fleisch bei nicht deutlich besserer Qualitätsklasse vorziehen würde.
Knights of San Francisco, ein spielenswertes Text-RPG
Wednesday, 5. May 2021
Knights of San Francisco ist ein Egamebook. Ein Computerspiel fürs Telefon (Android und iOS), das sich spielt als würde man in einem Buch Entscheidungen treffen. Man kennt das vielleicht von in echten Büchern erzählten Spielen, bei denen man dann je nach Entscheidung Seite X oder Seite Y aufschlagen soll. Ich erinnere mich noch heute, wie meine Grundschullehrerin mir ein solches Buch gab, ich es hinten in der Leseecke des Raums lesen durfte und ich es total faszinierend fand – sogar einzelne Textstellen und Entscheidungen sind noch deutlich in meiner Erinnerung. Es war wohl prägend und die Faszination ist bis heute nicht verschwunden.
Diese App will sogar mehr bieten, mehr Details simulieren und Entscheidungen mit interaktiven Auswirkungen haben als ein Textbuch es könnte. Und da es eben kein Buch ist kann wie in RPGs über Erfolg und Misserfolg per Würfel entschieden werden. Es gibt dazu einen tollen Trailer:
In dem Spiel ist man ein junger Totenbeschwörer auf der Suche nach seinem Bruder. Der ist in San Franciso verschwunden, bei einer uralten Pyramide. Doch direkt am Anfang wird man von einem wilden Goblin angegriffen und in den Folgeabschnitten lauern noch viel mehr Gefahren. Warum man den Bruder sucht? Das wählt man am Anfang selbst aus.
Mir hat die Geschichte gefallen und ich fand, dass die Umsetzung funktioniert. Wenn ein Goblin im Kampf ein Auge verliert, ich ihn danach wiederbelebe und er dann nicht die Augen, sondern nur das Auge aufmacht, zeigt sich wie die kleinen Details in den Texten beachtet werden. Genauso gibt es auch größere Entscheidungen, aber wie dynamisch die Geschichte wirklich ist – wieviel wirklich Simulation ist – um das zu herauszufinden müsste ich sie noch einmal durchspielen und auf die Änderungen achten. Aber selbst wenn der Großteil statisch wäre, wovon ich ausgehe, hatte es viel von einem Pen&Paper-Abenteuer in interaktiver Textform und schon das war einfach nett.
Knights of San Francisco lief auf meinem alten Android gut. Nur ab und an dauerte das Berechnen der Auswirkungen etwas zu lange. Die Musik könnte sich besser an die Spielsituation anpassen. Und das Spiel war an einem kurzen Nachmittag durchgespielt. Aber das ist jeweils kein starkes Manko, auf neuen Geräten wird es schneller entscheiden, die Musik ist nebensächlich und die Kürze war sowohl angekündigt als auch beim geringen Preis okay.
Wer das Konzept auch nur halb so interessant findet wie ich sollte wirklich einen Blick riskieren.
Ein Printstylesheet für den Blog
Tuesday, 4. May 2021
Dieser Blog hat neues CSS für die Druckdarstellung bekommen. Der Artikel zur Witcherserie als Beispiel sieht im Web so aus:
Ausgedruckt – bzw mittels der Druckfunktion zum PDF umgewandelt – und dabei auf ein Blatt herunterskaliert kommt das dabei raus:
Erreicht wird die angepasste Darstellung durch dieses CSS, das ich einfach der regulären CSS-Datei hinzugefügt habe:
@media print { #serendipitySideBarContainer { display: none; } #content { width: 100%; } #serendipityCommentFormC { display: none; } .shariff { display: none; } .dsgvo_gdpr_footer { display: none; } #siteNav { display: none; } body { font-family: Iowan Old Style, Apple Garamond, Baskerville, Droid Serif, Times, Source Serif Pro, Apple Color Emoji, Segoe UI Emoji, Segoe UI Symbol, Times New Roman, serif; border: none; } html { background-color: white; } .serendipity_entry_body { column-width: 17em; column-gap: 3em; } .serendipity_entry_body a[href*='//']::after, serendipity_commentBody a[href*='//']::after { content: " (" attr(href) ")"; } a { color: black !important; text-decoration: underline !important; } #serendipity_banner { display: none; } #mainpane::before { content: "onli-blogging"; display: block; } .serendipity_title a { text-decoration: none !important; } .serendipity_title, .serendipity_date { break-after: avoid; break-after: avoid-page; } br + .serendipity_commentsTitle, .nocomments { display: none; } .serendipity_entryFooter, .serendipity_comment footer { display: none; } }
Wer das in seinen eigenen Serendipity-Blog übernehmen will müsste manche der Klassen wahrscheinlich anpassen, denn mein Design basiert mit codeschmiede auf älteren Code, den ich selbst nach HTML5 umgewandelt habe. Deswegen gibt es ein paar Unterschiede bei den Klassennamen zu 2k11 und anderen modernen Themes. Aber die Grundideen sind:
Ausgeblendete Seitenleiste und andere Elemente
Wer einen Artikel ausdrucken will kann auf dem Papier mit den Links in der Seitenleiste nichts anfangen, daher konnte die weg. Dazu habe ich den Header, der bei Einzelartikeln nur den Artikeltitel doppelte, den Footer des Blogs, die Artikelunterzeile und das Kommentarformular ausgeblendet.
Links ohne Farbe
Links sind hier im Blog normalerweise farblich markiert. In der Druckversion sind sie stattdessen schwarz, aber unterstrichen, und ihnen folgt das Linkziel als Text.
Serif-Schriftart
Für das richtige Papierdesign. Übernommen vom systemfontstack – es war gar nicht so einfach, passende Systemschriftarten für Serif- statt Sans-Serif-Schriftarten zu finden – aber leicht angepasst, denn Times New Roman war mir zu prominent platziert.
Spaltenansicht
Der Artikel wird wenn Platz ist in Spalten aufgeteilt. Auf dem Bild oben sind mehr Spalten als normal, da die Skalierung auf 60% reduziert war. Normalerweise sind es bei Din-A4 zwei Spalten im Querformat und nur eine, wie am Monitor, im Hochformat. Die Idee habe ich von sitepoint übernommen.
Titel hinzugefügt
Damit der Blogname trotz ausgeblendetem Header wenigstens irgendwo auftaucht wird er als Pseudoelement vor den Artikel gepackt.
Ganz bewusst nicht ausgeblendet sind die Kommentare, denn die könnten ja zum Artikel beitragen bzw das sein, was jemand ausdrucken wollte. Und auch das Videoelement ist absichtlich noch da, denn ohne es würde dieser Abschnitt des Artikel fehlerhaft wirken. Man kann es zwar nicht anklicken, aber sieht so zumindest dass es da war.
Insgesamt ging es also darum die Artikel auf dem Papier lesbarer zu machen, interaktive Elemente möglichst zu entfernen und auch die angezeigten Farben auf ein Minimum zu reduzieren. Damit wenn schon etwas ausgedruckt wird, es möglichst sparsam geschieht und das Ergebnis so lesbar wie möglich ist.
KDE Connect verbindet Telefon und PC, auch ohne KDE
Friday, 30. April 2021
Wer regelmäßig am PC sitzt, aber gleichzeitig zum Beispiel eine Chatapp auf dem Androidtelefon laufen hat, kennt das Szenario: Jemand sendet dir einen Link am Telefon aber du würdest ihn viel lieber mit dem Desktopbrowser öffnen. Oder: Auf dem PC läuft bereits ein Video, aber mit dem Telefon in der Hand wird das gerade störend, doch jetzt müsstest du umgreifen um mit der Maus das Video zu pausieren. Auch nicht selten: Ein auf dem PC gefundener Link sollte per Android-Chatapp verschickt werden, doch wie bekommt man ihn jetzt vom Desktop aufs Telefon?
KDE Connect ist ein Projekt, das genau solche Szenarien löst. Es erstellt eine möglichst nahtlose Integration zwischen Linuxdesktop und Androidtelefon. So können Dateien ausgetauscht werden, der PC kommt im Share-Dialog vor, die Zwischenablage wird synchronisiert, Videos im PC-Browser sind am Telefon kontrollierbar und es gibt noch mehr Funktionen.
Bei void liegt das Programm im Repository. kdeconnect am Desktop besteht aus zwei Bestandteilen: Dem Daemon /usr/lib64/libexec/kdeconnectd, der bei mir mit sudo gestartet werden musste, und die Kontrollprogramme kdeconnect-app bzw kdeconnect-cli. Mit ihnen verbindest du PC und Telefon, wobei auf dem Android die App KDE Connect laufen muss, die ich per F-Droid installiert habe.
Es muss sich bei mir noch zeigen, ob sich das im Alltag bewährt. Aber bisher funktionierte das System gut und ich finde gerade das schnelle Rüberkopieren von Links sehr praktisch.
Reviews im Blog per Plugin mit Schema.org auszeichnen
Thursday, 22. April 2021
Das im letzten Jahr hier vorgestellte Schema.org-Plugin setzt automatisch Markup, um Blogartikel als Blogartikel zu beschreiben. Das ist zwar nett, aber der Nutzen ist beschränkt – so hat Google diese Auszeichnung bisher nicht aufgegriffen.
Was mir aber im pc-kombo-Blog wahrscheinlich einige Besucher beschert hat war das Markup für Reviews. Das ist eigentlich logisch: Was soll es auch viel helfen wenn die Suchmaschine sich sicherer ist, dass die Blogartikel hier Blogartikel sind. Wovon sie handeln und was sie aussagen, das sind die verwertbaren Informationen um den Artikel im richtigen Moment besser dargestellt anzuzeigen.
Ich habe damals mit recht simplem JSON-Markup gearbeitet und das manuell in die Artikel eingebaut. Jetzt habe ich das Schema.org-Plugin erweitert, um das gleiche Markup in Serendipity-Blogs halbautomatisch zu erstellen. Zum Beispiel sieht der vom Plugin generierte JSON-Code in meinem Artikel zum Sharkoon-DAC so aus:
{"@context": "http://schema.org", "@type": "Product", "name": "Sharkoon DAC Pro S V2", "image": , "description": "", "brand": { "@type": "Thing", "name": "Sharkoon" }, "review": { "@type": "Review", "author": { "@type": "Person", "name": "onli" }, "datePublished": "2021-04-02T06:34:00+0000", "reviewRating": { "@type": "Rating", "ratingValue": "4.0" } } }
Der Code ist teilweise automatisch generiert, der Rest muss manuell über die freien Felder des Entrypropertyplugins eingegeben werden.
Dafür erstellt man vier freie Felder in dessen Pluginkonfiguration:
schemaType, schemaName, schemaBrandName, schemaRating
Die ersten drei beschreiben das Thema des Artikels. Hier war schemaType
ein Product
, schemaName
der Name des DAC, und schemaBrandName
der Name des Herstellers. Wäre ein Film das Thema gewesen hätte ich Product
mit Movie
ausgewechselt – Googles Dokumentation beschreibt das als gültigen Wert, andererseits hat der Markuptester bei mir mit vielen der dort angegebenen Werten nichts anfangen können, auch wenn er nicht meckerte.
Das vierte Feld schemaRating
ist schließlich die Bewertung. Da ich keine Skala angeben möchte geht die von 0 bis 5. Eine numerische Bewertung angeben zu müssen ist manchmal blöd, da meine Artikel normalerweise keine finale Bewertung abgeben. Aber für das Snippet wird sie verständlicherweise gebraucht.
Der Schema.org-Reviewcode wird nur ausgegeben, wenn alle vier Felder gefüllt sind. Er ist ein Zusatz zum regulären Blogartikelbeschreibungscode, den das Plugin bisher ausgegeben hat. Der bleibt unverändert erhalten.
Das Plugin ist nicht auf Spartacus, aber kann von seinem Github-Repo heruntergeladen werden. In dessen Readme ist auch die Konfiguration nochmal erklärt.
Die Witcher-Serie
Monday, 19. April 2021
Es ist wundervoll, wenn eine Bücher- und Videospieladaption als Film oder Serie einmal gelingt. Zu selten ist das der Fall. Doch Netflix erste Staffel der Witcher-Fernsehserie ist hervorragend geworden.
Das Witcher-Universum ist nicht furchtbar riesig. Es gibt eine feste Gruppe von Hauptcharakteren um den alternden Hexer Geralt, die einen Zeitabschnitt in einem düsteren Fantasie-Polen durchleben. Aber es sind in diesem Rahmen dann doch etwa acht Bücher und drei gute Computerspiele zu beachten, die wesentlich das Aussehen und die Atmosphäre dieser Welt geprägt haben. Die große Leistung der Netflix-Adaption ist es, beides perfekt einzufangen.
Natürlich kann nicht alles aussehen wie in den Spielen oder wie es die Bücher im Kopf zeichneten, seien es die Ortschaften oder die Zauberinnen. Und doch stimmt das Grundbild. Die zerrissene und oft grausame Welt ist voller Rassenkonflikte von Menschen, Zwergen und Elfen, dazu die Monster, und die magiebegabten als zusätzliche Klasse andersartiger. Geralt sucht sich einen Pfad durch dieses Chaos, verdingt sich als Monsterjäger und kämpft um seine Neutralität, was selten gelingt. Noch weniger oft in der Hauptgeschichte dieser ersten Staffel, in der Geralt nach Ciri sucht, seinem Schicksalskind. All das schafft genau die Atmosphäre, die von Buch wie Spiel erschaffen wurde.
Dabei ist die Inszenierung wirklich stark geworden. Wieviel dann eben doch genauso aussieht wie in den Spielen. Und wie teils Folgenabschnitte fast komplett aus den Büchern übernommen sind, ohne sie zu verschandeln, und die Staffel im ganzen doch eine zusammenhängende spannende Geschichte gibt. Einiges an diesem sichtbaren Respekt vor dem Material mag von Henry Cavill gekommen sein, der sich wohl tief in den Stoff eingearbeitet hat und mit seinem inzwischen sichtbar werdenden Gegensatz aus gutaussehendem Hollywoodschauspieler und computerspielendem Fantasygeek für diese Serie geboren wurde.
Aber vielleicht ist Cavills betonter Einfluss mehr gutes Marketing und nur das i-Tüpfelchen gewesen, denn es ist ja eben auch alles um ihn herum was stimmt, vom Casting übers Set bis zum Skript. Das geht so weit, dass selbst Analysen der Kampfszenen voller Lob sind, was bei einer generischen Computerspielverfilmung wohl niemand erwartet hätte:
Besonders wichtig war die Entscheidung, auch in der Serie zu behalten was eben auch Teil der Vorlage ist: Sex und Gewalt. Witcher auf eine USK-6-Serie heruntergedummt hätte nicht funktioniert.
Ich würde mich nichtmal als großen Fan dieses Universums bezeichnen. So völlig hatte mich diese Fantasywelt dann doch nicht gepackt. Aber immerhin habe ich die Bücher gelesen und fand sie mit wenigen Abstrichen unterhaltsam. Die Computerspiele tauchten hier im Blog auf und wie deutlich wurde fand ich sie ziemlich großartig. Damit war ich trotzdem bestimmt voll in der Zielgruppe. Und für mich hat die Serie dann auch hervorragend funktioniert. Ich kann sie nur positiv bewerten.
Steht nur aus, dass auch weitere Folgen veröffentlicht werden, was durch die Pandemie verzögert nun 2021 tatsächlich geschehen soll.
Die Woche der integrierten Grafik
Wednesday, 14. April 2021
Ich hatte gleich zwei Gründe, mich mit den in Prozessoren integrierten Grafikeinheiten (iGPUs) auseinanderzusetzen: Zuerst die generelle Nichtverfügbarkeit von Grafikkarten, wodurch mein PC-Hardwareempfehler derzeit nur Prozessoren mit integrierter Grafik empfiehlt. Und zweitens, dass meine eigene RX 580 sich verabschiedet hat und auch ich bis zur Preisnormalisierung ohne Grafikkarte auskommen will.
Daher sollte der Meta-Benchmark die integrierten Grafikchips anzeigen und mehr Daten zur Verfügung haben, um sie richtig einzuordnen. Was nicht einfach ist, denn da iGPUs relativ lahm sind wurde über sie nur selten geschrieben. Und noch seltener versucht, sie mit Grafikkarten zu vergleichen. Beides aber braucht mein System um sie richtig platzieren zu können. Ich wühlte mich also diese Woche lange durchs Internet um passende Veröffentlichungen zu finden.
Doch zuerst: Welche integrierten Grafikeinheiten gibt es überhaupt? Bei Prozessoren, die regulär im Handel für Normalkunden verkauft wurden.
iGPUs von Intel und AMD
Intel rüstet seine Prozessoren seit vielen Jahren mit integrierter Grafik aus. Nur die neueren F-Modelle verzichten auf sie und sind dann manchmal etwas günstiger. Soweit ich nachvollziehen konnte pflegte Intel da zwei Serien: Die superschwache Intel (U)HD, die in Desktopprozessoren eingebaut wurde und bis vor kurzem gerade so für den Desktopbetrieb samt Youtube ausreichte, sowie die stärkere Intel Iris, die aber mit einer Ausnahme ausschließlich bei Laptopprozessoren eingebaut wurde. Insbesondere wären da:
Intel UHD 750
Die ganz neue Grafikeinheit der genauso neuen Rocket-Lake-Prozessoren, z.B. eines Core i5-11600K. Das erste mal in Jahren, dass sich bei Intel die Grafikleistung deutlich verbessert hat.
Intel UHD 630
Die vorherige Grafikeinheit wurde von der 10000er-Serie bis zur 8000er-Serie benutzt.
Intel UHD 610
In den billigen Pentium- und Celeron-Prozessoren wurde in der Zeit aber die schwächere UHD 610 eingesetzt.
Intel HD 630
Und davor gab es die HD 630 in den 7000er-Prozessoren, die nur etwas langsamer als die UHD 630 getaktet war.
Intel HD 610
Die HD 630 hatte wieder eine schwächere Variante für Pentium/Celeron, die im äußerst beliebten Pentium G4560 drin war.
Intel Iris Pro 6200
Und das hier war der große Ausreißer. Die Grafikeinheit der Broadwell-Prozessoren, also i5-5675C und i7-5775C, war wesentlich besser als was davor und lange auch als was danach kam.
Intel HD 4600
Und mit der Grafikeinheit der 4000er-Prozessoren beende ich diese Liste.
Es gab dann noch mehr und frühere Varianten, Intel macht das schon eine Weile, aber die müssen ja nicht alle hier stehen.
AMD dagegen hat seine Grafikeinheit nie generell in alle Prozessoren eingebaut. Stattdessen versuchten sie nach dem Kauf von ATI Prozessoren mit stärkerer Grafikeinheit als APUs zu verkaufen, als eine Alternative zu ihren damals schwächelnden regulären Prozessoren. Mittlerweile wurde der Name aufgegeben, aber die regulären Ryzenprozessoren haben immer noch keine integrierte Grafik. Nur die spezielle G-Reihe. Aber im Detail gab und gibt es:
Vega 11 und Vega 8
Die Vega-Architektur gab es auch mit Vega 56 und Vega 64 als echte Grafikkarte, die integrierte Variante steckt in Ryzen 3 2200G/3200G sowie Ryzen 5 2400G/3400G.
Vega 3
Ähnlich wie bei Intel haben die billigeren Prozessoren schlechtere Grafikeinheiten, hier trifft das die Athlon-Reihe, also Athlon 200G/220G/240G und 3000G.
Radeon R7
Das war ein Sammelbegriff für unterschiedlich starke Grafikeinheiten, die von AMD in mehrere APU-Generationen der Bulldozer-Ära gesteckt wurden, vom A8-7650K bis zum A12-9800.
Radeon HD 8670D
Vor der Radeon R7 jedoch waren die Grafikeinheiten klar benannt. Die 8670D war im A10-6790K und wenigen ähnlich starken APUs. Es gab dann mehrere schwächere Varianten wie eine 8570D, und davor eine HD 7660D mit wieder schwächeren Varianten, usw. usf.
Relevant ist heute davon im Grund noch alles, was in benutzbar starken Prozessoren steckt. Denn für den Bürobetrieb zum Beispiel reichen sie alle. Das wären alle genannten Intel-Einheiten, vielleicht mit Ausnahme der älteren Intel/Celeron-Varianten. Bei AMD wird es eigentlich erst ab Vega interessant, die Prozessoren davor sind heute nicht sehr reizvoll.
Doch was taugen die Grafikeinheiten im Vergleich untereinander und im Vergleich mit echten Grafikkarten?
Die Rangfolge
Der Meta-Benchmark funktioniert so: Ich füttere ihn mit Benchmarkergebnissen und er baut aus vielen verschiedenen Benchmarks eine Abfolge, indem er auch die Verbindungen zwischen den Grafikkarten berücksichtigt die nie direkt miteinander verglichen wurden. Um gut zu funktionieren braucht es viele Daten, die auch immer mal wieder zwischen den Generationen vergleichen. Bei den iGPUs ist das noch seltener als bei regulären Grafikkarten. Klar, weil sie weniger interessant sind, aber bestimmt auch weil sie so schwierig im Benchmark zu vergleichen sind. Der Prozessor wechselt ja mit, und je nach Prozessor ist eine gleich benannte integrierte Grafikeinheit unterschiedlich stark. Mein Meta-Benchmarkergebnis kann also nur eine Annäherung an die echte Leistung und Rangfolge sein.
Aber immerhin, eine so umfangreiche Annäherung so vieler GPU- und iGPU-Generationen anhand echter Spieleleistung findet sich sonst nirgends. Aus der Analyse der Benchmarks kam heraus:
Ein paar Erkenntnisse:
- Alle iGPUs sind immer noch schwächer als die bereits enttäuschend schwache GT 1030, und schwächer als eine Uralt-Grafikkarte wie die GTX 750 Ti.
- Mit der UHD 750 hat sich Intel deutlich verbessert - aber auch das gilt nur, wenn man die Iris Pro 6200 vergisst, die nur knapp geschlagen wurde.
- Die GT 710 und 730 sind gute Vergleichskarten, sie markieren mit der 710 das untere Ende der iGPU-Leistung und mit der 730 die Stufe zwischen den besseren Vega-APUs und den anderen Grafikeinheiten.
Ob aber Vega 3 wirklich stärker ist als die Intel Iris Pro 6200 wage ich zu bezweifeln, da fehlt nämlich ein direkter Vergleich, was bei diesen direkten Nachbarn hilfreich wäre. Dass sie aber in etwas gleich stark sind, das geben die Daten mit indirekten Vergleichen wohl her.
Zusatzfrage: Kann man mit den besseren iGPUs eigentlich spielen? Tatsächlich geht das. Mit der Intel Iris Pro 6200 meines 5675C habe ich noch nicht allzuviel ausprobiert, aber schon Stellaris und Age of Empires 2 DE am Laufen gehabt. Beide funktionierten von der Leistung recht gut, AoE2 aber war im Multiplayer nicht stabil genug.
Ich empfehle aber mal die Einzelbenchmarks anzuschauen, besonders die der Intel UHD 750 und die der Vega 8. An ihnen lässt sich gut ablesen, welche Spiele mit welchen FPS laufen würden. Wobei man da auch einen Blick auf die jeweils genutzten Einstellungen werfen sollte.
Ich ziehe daraus, dass die Intel Iris Pro 6200 eine gute Wahl war, und man bei einem Neukauf mit der Intel UHD 750 eines i5-11500 den Grafikkartenwinter ganz gut überstehen könnte. Die AMD-APUs wären noch besser, sind aber derzeit ähnlich rar und überteuert wie Grafikkarten.
Der USB-Switch Aten US224, eine Heimarbeitserleichterung
Tuesday, 6. April 2021
Warum ist der Kopfhöreranschluss meines Gehäuses eigentlich kaputtgegangen? Das tägliche Wechseln zwischen Arbeitslaptop und Heimrechner wird nicht geholfen haben. Neben dem Kopfhörer musste ich eine Weile auch Maus und Tastatur umstecken, was nervig wurde. Dann habe ich mir den USB-Switch US224 von Aten gekauft und kann mir das seitdem sparen.
Die Anschlüsse
Der Switch hat vier Anschlüsse für USB-Geräte. Maus und Tastatur schließe ich da an, gelegentlich das Mikrofon. Eigentlich wäre noch Platz für die USB-Soundarte, aber dafür habe ich den Switch nicht an die beste Stelle meines Schreibtischs geklebt. Vielleicht korrigiere ich das später mal.
Zusätzlich könnte der Switch per USB-Mini-B mit Strom versorgt werden. Das ist optional, meine drei Geräte brauchen es nicht, aber wenn ich zusätzlich eine externe Festplatte anschließen wollte dürfte es nötig werden.
Auf der anderen Seite des Switches sind drei Kabel fest installiert. Zwei sind normale USB-Kabel, sie gehen zu Laptop/PC. Es wäre schöner wenn diese beiden Kabel auswechselbar wären. Das dritte ist ein dünnes Kabel und hat am Ende einen Schalter. Mit ihm (und nicht am Switch selbst, was ich wieder nicht toll finde) wird zwischen den angeschlossenen Rechnern umgeschaltet.
So funktionierts
Per Druck auf den Schalter wird das aktive Gerät umgeschaltet. Also: Ich arbeite am Laptop mit Tastatur und Maus. Dann schalte ich den Laptop aus, schalte den Rechner an und muss nur den Knopf des USB-Switch drücken, damit Maus und Tastatur den Rechner kontrollieren können. Deswegen wurde das automatische Wechseln des Tastaturlayouts bei der Tastaturerkennung wichtig.
Ich habe bewusst nur einen USB-Switch und keinen Switch mit Anschlüssen für den Monitor gekauft. Die sind teurer und bei meinem Monitor unnötig: Denn der Acer CB242Y hat mehrere Eingänge, zwischen denen er zuverlässig automatisch umschaltet. Am HDMI-Eingang steckt der Laptop, am Displayport der PC. Geht im Szenario oben der Laptop aus und der PC an wechselt er einfach rüber. Ich hätte mit einem komplizierteren Switch also nichts gewonnen gehabt. Das wäre etwas anderes, wenn ich Laptop und Rechner parallel laufen haben wollte.
Ich war vor solchen USB-Hubs als Fehlerquelle gewarnt worden, weil dann bei Problemen im Betrieb die USB-Geräte kurz ausgehen. Doch davon bin ich verschont geblieben, der Aten-Switch funktionierte bisher einwandfrei. Einzige Nickligkeit ist die Initialisierung morgens beim Einschalten, wenn ich manchmal zweimal den Schalter drücken muss damit mein Laptop die Tastatur und Maus erkennt. Ansonsten funktioniert der Umschalter perfekt und ist eine echte kleine Erleichterung im Alltag.
Ich habe den Aten US224 für etwa 20€ bei Galaxus gekauft.
Sharkoon DAC Pro S V2 in Betrieb genommen
Friday, 2. April 2021
Dass ich mir mal ein als DAC beworbenes Gerät kaufen würde hätte ich auch nicht gedacht. Aber der Sharkoon DAC Pro S V2 dient bei mir weit abseits von audiophilen Phantasien schlicht als Alternative zum defekten Kopfhöreranschluss meines PC-Gehäuses, aus dem Ton nur noch einseitig herauskam.
Das ist in der Box
Es ist wirklich nur ein USB-Stick mit Kopfhörereingang:
Wobei von wegen Kopfhörereingang, tatsächlich kann dort wie bei Telefonen auch ein kombiniertes Mikrofon mit angeschlossen werden. Zusätzlich gibt es an der Seite drei Leuchten für die gerade genutzte Abtastrate, 44.1, 48 und 96 kHz. Es lag noch eine kleine Anleitung unter dem schwarzen Einsatz.
Installation
Im laufenden Betrieb angeschlossen wurde der Stick sofort erkannt:
onli@fallout:~$ cat /proc/asound/cards 0 [HDMI ]: HDA-Intel - HDA Intel HDMI HDA Intel HDMI at 0xf7114000 irq 33 1 [PCH ]: HDA-Intel - HDA Intel PCH HDA Intel PCH at 0xf7110000 irq 34 2 [Device ]: USB-Audio - USB Audio Device UC Mic USB Audio Device at usb-0000:00:14.0-5.1, full speed 3 [S ]: USB-Audio - Sharkoon Gaming DAC Pro S
Bei einem normalen Linuxsystem müsste dann nur er in der grafischen Konfiguration als Ausgabegerät gewählt werden. Weil ich pures ALSA benutze musste ich stattdessen meine ~/.asoundrc editieren und das dmix-Device anpassen. Von:
pcm.dmixer { type dmix ipc_key 1024 slave { pcm "hw:PCH" buffer_size 16384 period_time 0 period_size 1024 } }
zu:
pcm.dmixer { type dmix ipc_key 1024 slave { pcm "hw:S" buffer_size 16384 period_time 0 period_size 1024 } }
Firefox neustarten und der Ton erschien sofort, ein Reboot war nicht nötig.
Klangqualität
Eine naheliegende Frage wäre: Und, klingt es besser? Die Antwort: Vielleicht? Ich habe mit Tempel von Colour Haze mein Lieblingsalbum angehört. Klang gut. Klang aber auch vorher schon gut. Es fällt auf, wie laut die Musik jetzt sein kann, ich muss mit meinen Kopfhörern die Lautstärkeregelung auf 10 von 100 setzen (db Gain: -35) um in etwa das vorherige Niveau zu erreichen, das bei 31 von 100 lag. Und im Zweifel bedeutet lauter bei Musik ja besser, so ist kein Vergleich möglich. Allerdings: Meine Logitech-Kopfhörer haben eine Boost-Funktion, die ich anfangs verschmäht habe und später dann doch akzeptierte (bei solchen geschlossenen Kopfhörern mit starker Isolierung sei sie angemessen las ich, und musste dann zustimmen). Da meine ich deutlich wahrzunehmen, dass der Unterschied zwischen Boost an und aus geringer geworden ist. Mag Einbildung sein, vielleicht hängt auch das nur an der leicht anderen Lautstärke, vielleicht passte die Funktion auch einfach nie für dieses Album und meine initiale Abneigung kam hierher.
Wer fundiertes über die Qualität lesen will sollte den Test samt den Messungen von Igor ansehen. Er schrieb:
Stichwort Zielgruppe. Jeder Gamer, der ein ordentliches Headset hat, kann den Onboard-Sound genüsslich abhaken. Wir haben hier nämlich weder die Einflüsse der Grafikkarte noch ein zu hohes Grundrauschen. Und ordentlich Verstärkerleistung gibt es sogar für hochohmige Headsets noch genug. Der Frequenzgang ist linear und sauber und genau das wird die Liebhaber des differenzierten Hörens und des räumlichen Tiefgangs begeistern. Die Protagonisten der Badewannen-Fraktion, die mit ihren Spaßkopfhörern noch den ultimativen Bass-Booster für die gepflegte Gehirnmassage suchen, werden allerdings herb enttäuscht.
Gut, dedizierte Grafikkarte habe ich derzeit nicht, auch schon als eine im System war weder Einflüsse von ihr bemerkt noch irgendein Grundrauschen. Aber immerhin liest sich das so als ob der Sharkoon-Stick zumindest nichts falsch macht.
Letzten Endes eine direkt linuxkompatible USB-Soundkarte mit Kopfhörerverstärker, der auch einen Kopfhörer mit Bedarf für ein wesentlich lauteres Signal als die meinen brauchen versorgen könnte. Wer das sucht, für den könnte der Sharkoon-Stick passen. Und als Lösung für den defekten Kopfhöreranschluss des Gehäuses taugt er auch. Ich habe ihn bei equippr für 30€ plus Versand gekauft. Pfeilschneller Verstand - spätabends bestellt, einen Tag gewartet, am nächsten war er schon da.