Testet die Brave-Suchmaschine
Thursday, 24. June 2021
Braves Suchmaschine ist von der geschlossenen in die offene Beta gewandert. Ich war in der geschlossenen Beta und mein Eindruck von Brave Search ist positiv. Du solltest es testen.
Cliqz war eine gute Grundlage
Die Suchmaschine, die Brave jetzt vorgestellt hat, ist keine vollständige Eigenentwicklung. Stattdessen ist sie das Überbleibsel von Cliqz, einer in Deutschland entwickelten Software. Das bedeutet zum einen, dass da viele Entwicklungsjahre drinstecken und viel Geld investiert wurde. Es bedeutet zum anderen, dass die Suchergebnisse erstaunlich gut sind.
Denn das war schon bei Cliqz so, wie ich kurz vor der Abschaltung feststellen durfte. Daher fand ich sie durchaus bedauerlich. Es gibt natürlich Alternativen, aber sie sind alle nicht wirklich gut.
Die große Alternative ist offensichtlich Google. Doch Google als Organisation ist mittlerweile viel zu groß und daher kritisch zu sehen. Gleichzeitig ist die Firma Alphabet/Google so dysfunktional, dass es auf die Qualität der Suchergebnisse durchschlägt. Okay, vielleicht hat es mit den Problemen des Unternehmens nichtmal etwas zu tun und es ist nur der Dauerbeschuss durch SEO, der die Ergebnislisten schwer zu ertragen macht. Aber andererseits ist da eben auch AMP, die Verweigerung Suchwörter dumpf zu suchen anstatt zu interpretieren bzw kompliziertere Suchoperationen ausführen zu dürfen, die wegen des Trackings notwendigen Einwilligungspopups – nein, es liegt auch an Google selbst.
Es gibt dann eine Reihe von Webseiten, die Google in vermeintlich erträglicherer Form wiederverpacken, wie Startpage. Das ändert wenig an den grundlegenden Problemen.
Bekannteste Alternative zu Google ist bisher immer duckduckgo gewesen. Mit dem Fokus auf Datenschutz und positioniert als Kleiner unter den Großen durchaus sympathisch und nach der Cliqz-Abschaltung (und bevor ich drüber stolperte, neben Qwant) auch meine Wahl, ist ddg aber leider immer noch größtenteils ein neuverpacktes Bing. Erstens ist es damit Microsoft, was jetzt zu Google vom Sympathielevel nicht gerade eine große Verbesserung ist. Zweitens sind die Suchergebnisse auch jetzt noch nur gerade so gut genug, dass nicht jede Suche zusätzlich per !g zu Google geleitet werden muss. Sondern nur jede zweite (ich übertreibe etwas). Besonders bei lokalen Suchen nimmt die Ente ihren Namen zu ernst und ist eine lahme.
Andere echt-unabhängige Suchmaschinen wie mojeek konnten mich bisher auch nicht überzeugen. Die Suchergebnisse funktionierten bei meinen damaligen Tests zu oft einfach gar nicht.
Mit Cliqz hatte ich dieses Problem nicht und auch Brave in der Beta funktionierte gut. Schau dir doch mit mir ein paar Suchergebnisse an:
Praxisbeispiele
Ich suchte eben für diesen Artikel nach Startpage. Ich fand Startpage:
Ubuntu findet was es soll, die Linuxdistribution, dann die Erklärung der Philosophie auf Wikipedia, dazu News und Hintergrundinfoseiten wie distrowatch.
Die Suche nach pc-kombo findet sogar pc-kombo (so furchtbar klein kann der Index also nicht sein):
Etwas praxisnäheres vielleicht als nächstes. Auch bei mir sind Suchmaschinen oft Fragenbeantworter, beim Programmieren besonders, Googles Ansatz als Antwortversorger ist da ja gar nicht verkehrt. Wenn ich vergessen hätte wie ich in Bash ein Array erstelle, wären aber auch bei Brave die gefundenen Antworten hilfreich. Google findet bei den Top-Ergebnisse ähnliche Seiten, in anderer Reihenfolge:
Bei den lokalen Suchergebnissen findet "Bonn Bügeramt" als Beispiel eine hilfreiche Stadtverwaltungsseite (auch wenn das Umlenken auf Buergeramt sehr seltsam ist):
Dass onli-blogging nicht zu diesem Blog führt kränkt allerdings meinen Stolz. Die präsentierten Ergebnisse sind allesamt Müll:
Aber da zu scheitern dürfte die wenigsten Benutzer betreffen.
Sind das alles Ergebnisse aus Braves eigenem Index? Mir ist das derzeit etwas unklar. Grundsätzlich gibt es wohl (im Brave-Browser?) die Funktion, automatisch Googles Suchergebnisse mit in der Ergebnisliste anzeigen zu lassen wenn Braves Index ungenügend ist. Und manche der Funktionen auf der Seite seien nur API-Aufrufe. Anderseits ist die Prozentzahl bei der Suchunabhängigkeit in der Seitenleiste bei 88% (global: 87%), wenn das nicht gelogen ist stemmt der eigene Index den Großteil der Arbeit.
Nun könnten man diese Prozentzahl leicht erreichen, wenn nur die Treffer auf der ersten Seite von Google übernommen würden und nur die generell ignorierten Folgeseiten aus dem eigenen Index kommen. Ich kann eine solche Trickserei nicht völlig ausschließen. Man kann versuchen mit Google zu vergleichen, aber da Google personalisiert sagen selbst dann Abweichungen im eigenen Browser erstmal nicht viel. Bei mir sehe ich in der Seitenleiste keine Funktion zum Aktivieren bzw. Deaktivieren einer solchen Funktion, vielleicht beschränkt sie sich also wirklich auf den Brave-Browser. Und dass schon Cliqz gute Ergebnisse geliefert hat macht die von Brave glaubwürdiger.
So oder so: Immerhin formuliert die Erklärungsseite klar das Ziel der Unabhängigkeit von anderen Anbietern. Das ist etwas, was ich z.B. bei duckduckgo vermisse – da schien es anfangs ein Ziel zu sein, wird mittlerweile aber nicht mehr für mich wahrnehmbar angestrebt.
Brave ist keine völlig verkehrte Organisation
Doch während ich hier eine gut funktionierende unabhängige Suchmaschine sehe, ist für andere Herkunft und derzeitige Heimatorganisation problematisch. Superexemplarisch bei den Kommentaren zum Artikel von Linuxnews zu sehen, wo erst Brave als nicht vertrauenswürdig eingeschätzt und kurz darauf gegen Burda geschossen wird, was der Hauptinvestor von Cliqz war.
Nun ist Burda schon als Leistungsschutzverfechter und Zensurfilterbefürworter wirklich keine sympathische Firma. Aber schon am Produkt Cliqz hinterließ das keine sichtbaren Spuren. Außerdem ist die Suchmaschine an Brave verkauft worden, von einer tieferen Beziehung habe ich nichts gelesen. Die wären demnach raus und die Technik kann erstmal nichts dafür, wo sie herkommt.
Bei Brave selbst würde ich dafür werben, der Firma eine Chance zu geben und sie nicht überkritisch zu bewerten. Denn ich glaube, viel von der Kritik kommt eigentlich aus einer Ecke, mit der ein vernünftiger Mensch nichts zu tun haben will. So entzündete sie sich meine Wahrnehmung nach hauptsächlich am integrierten Werbefilter. Als ob das Internet heutzutage ohne noch zu ertragen wäre, als ob auch nur eine Person mit minimalem technischen Wissen keinen nachinstallieren würde. Die Kritik dran kommt von Werbefirmen mit ihren Profilen und Trackern, denen schulden wir keine Sympathie.
Dass der Brave-Browser Werbung (mittlerweile indirekt) mit eigener ersetzt und dafür Crytogeld (BAT) ausschüttet, was dann an Nutzer und potentiell an Seitenbetreiber gehen kann, wird natürlich auch aus dieser Ecke kritisiert. Ich bin da zwar auch im ersten Moment skeptisch, weil es viel Macht an einer Stelle bündelt. Aber außerhalb eines Monopols könnte es schon ein guter Kompromiss sein, wenn so trackende und unzulässig aufmerksamkeitsheischende Werbung durch datenschutzrespektierende und weniger nervige Benachrichtigungen ersetzt wird. Ich schüttel mich wegen den dahintersitzenden Crypto-Coins, aber wenn hier Crypto als Anwendungsfall halbwegs passt, das System funktioniert und Seitenbetreiber die in echtes Geld umwandeln können (und das klappt wohl) ist es eigentlich kein Beinbruch.
Es ist kein Beinbruch, aber er passt zu einem diffusen negativen Bild. So wie Chromium statt Firefox als Grundlage zu nehmen, das ist mir unsympathisch. Dass Brandon Eich Geld an homophobe Organisationen spenden musste geht mir gewaltig gegen den Strich. Das negative Bild von Cryptotokens mit all den Scams und Energieverschwendung anderer Varianten, mit Chromium die nicht perfekte Browserwahl, eine verwerfliche, aber doch private und nicht direkt relevante politische Überzeugung – all das beeinflusst das Bild, aber es sollte es nicht beherrschen. Sie sind für sich betrachtet alle verteidigbar: Chromium als pragmatisch, Cryptocoins als hier ausnahmsweise praktische Lösung, Eichs politische Sicht als Privatmeinung, wobei vor allem ein einzelner Mann nicht eine Organisation definieren muss.
Wer will könnte sich von diesem negativen Eindruck befreien. Es gibt genug Platz daneben, um die positiven Werte der Brave-Organisation wie Datenschutz und Unabhängkeit von den Technologiekonzernen sowie den scheinbar existierenden Erfolg der Bemühungen wertzuschätzen.
Ich sehe insgesamt nicht, was so schlecht und dominierend an Brave als Organisation ist, dass sie unmöglich eine technisch gute und ethisch vertretbare Suchmaschine betreiben könnte. Zumindest wäre sie ein positiveres Gegengewicht zu Google und Microsoft. Egal, ob die Seite werbefinanziert bleibt oder ob es wirklich eine Bezahloption geben wird.
Brave Search hat eine Chance verdient
Alles in allem: Teste doch bitte die Suchmaschine. Setz sie als Standard im Browser, idealerweise Firefox, und prüfe für dich ob sie taugt. Ein Gegengewicht zu Google zu haben wäre wichtig, die Alternativen die wir bisher hatten sind noch nicht gut genug.
Es ist zwar ziemlich schwer die Qualität von Suchergebnissen objektiv zu bewerten. Aber zumindest mein Eindruck bisher war positiv, der Rückgriff auf Google erschien mir selten nötig. Wenn das auf Dauer so bleibt wäre das großartig.
Road Redemption: Ein besseres Automatenspiel
Monday, 21. June 2021
In Road Redemption ist man ein waffenschwingender Motorradfahrer, der auf einer wilden Verfolgungsjagd einen anderen waffenschwingenden Motorradfahrer erledigen soll. Zwischen ihnen: Noch mehr Motorradfahrer, mit Waffen.
Road Redemption ist keine direkte Umsetzung eines Arcade-Spiels, sondern orientiert sich wohl an Road Rash und damit an alten Konsolenspielen. Aber die wiederum waren damals oft an Arcade-Automaten angelehnt. Bei diesem Spiel meint man diese Herkunft sehr deutlich zu spüren; bei "Fahrphysik", Schwierigkeitsgrad, dem Kern als Geschicklichkeitsspiel sowie der nötigen Übung.
Klare Ziele
In den Levels geht es darum, entweder als erster das Ziel zu erreichen oder in einem Zeitlimit alle Gegner zu erledigen. Dafür gibt es Nah- und Fernkampfwaffen, dazu können die Gegner in Hindernisse geschubst werden. Auf den Strecken sind Icons verteilt, die dann beim Drüberfahren z.B. Munition geben. Zudem erscheinen auch farbkodierte Gegner, die Boni geben wenn du sie ausschaltest.
Zwischen den Levels können temporäre Upgrades gekauft werden, zwischen den Anläufen können permanente gekauft werden. So hilft dann selbst ein Scheitern dabei, nächstes mal eine bessere Chance zu haben. Das Sammeln von Upgrades ist auch ein nettes Zwischenziel.
Kniffliger als es scheint
Tatsächlich braucht es ein paar Upgrades und etwas Übung, bis das Spiel beherrscht wird. Die Steuerung mit Maus/Tastatur oder dem Controller ist nicht ganz intuitiv, gerade wie das Motorrad sich steuert. Das ist aber nicht ungewöhnlich für Arcade-Spiele. Road Redemption wird auch genauso absurd – wenn anfangs die Strecken noch gewöhnlichere heruntergekommene Wüstenhighways sind, regnet es später explodierende Autos und führt die Strecke auf vermeintlichen Häuserdächern über die Wolken, wobei das Motorrad auf einmal eine Schwebefunktion hat.
Der Koop-Modus wirkte mit seinem Split-Screen kompetent und spaßig, obwohl in meinem Fall die Mitspielerin von der Geschwindigkeit des Spiels plus der Hakeligkeit der Steuerung überfordert war.
Denn es reicht nicht, einfach zu fahren. Man muss lernen, wie welcher Gegner ausgeschaltet werden kann. In welchem Moment man nach links oder rechts schlagen muss. Dass bei solchen mit Helm die stumpfe Waffe besser ist, während bei denen ohne das Schwert besser funktioniert, wobei andere erst geblockt werden müssen. Es braucht etwas Erfahrung um zu wissen, wann die Munition der verschiedenen Schusswaffen gespart und wann sie besser eingesetzt werden sollte. Genau so, dass der Sprengstoff wie die Haftminen für die Missionen besonders praktisch ist, in denen neben feindlichen Motorrädern auch feindliche Transporter zu beseitigen sind. Während all dem sollte der Spieler die Abkürzungen wahrnehmen und nutzen. Kein Wunder, dass das Anfänger erstmal überfordert.
Fazit: Spaßig
Aber das Spiel belohnt dann auch, weil all das erlernbar ist und dann gar nicht mehr schwer scheint. Selbst während dem Lernprozess bietet Road Redemption rasante Arcade-Action. Die aber, dank den verschiedenen Leveltypen, dem drübergelegten Upgradesystem und den freischaltbaren Fahrern, länger motiviert als es ein simples Automatenspiel oder altes Konsolenspiel getan hätte. Dass die Grafik eher zweckdienlich als hübsch ist macht dabei gar nichts. Denn es ist am Ende ein ausreichend aufgebauschtes, doch im Kern schnörkelloses Actionspiel, und für eine kurze Weile purer Spaß.
Thea: The Awakening steckt voll HoMM, Gwent, Crafting und anderen guten Ideen
Tuesday, 15. June 2021
MuHa Games zeigt mit Thea: The Awakening, dass es für ein gutes Spiel nicht viel braucht. Es braucht nur eine gute Idee, viele gute Spielmechaniken, eine ansehnliche Grafik, eine interessante Story und die Fähigkeit, das sauber zu programmieren sowie voller Inhalt zu füllen. Nichts leichter als das, oder?
Das oben ist natürlich ein Witz, ein gutes Spiel zu erschaffen ist schwer. Aber tatsächlich fand ich Thea wirklich gut gelungen, und wenn MuHa Games auf der Webseite nicht die Größe ihres Spielestudios mit 5 Leuten angeben würden hätte ich ein größeres Studio dahinter erwartet.
Erkunden wie in HoMM
Das Spiel ist eine Mischung aus einigen Spieleelementen. Ähnlich wie in Heroes of Might & Magic startet ihr mit einer Siedlung und könnt eine Gruppe Einheiten aussenden, um die Karte zu erkunden. Die Siedlung kann auch ausgebaut werden, es braucht dafür Ressourcen. Doch anders als in HoMM braucht auch die Expedition Ressourcen, nämlich Nahrung und Brennmaterial, um in der Wildnis zu bestehen. Die Einheiten werden, ein weiterer Unterschied, nicht produziert, sondern sie sind die Dorfbewohner mit ihren Werten, Klassen und Ausrüstung. Im Dorf gelassen bauen sie Gebäude, sammeln Rohstoffe oder stellen Gegenstände her. In einer Expedition handeln sie in den verschiedenen Ereignissen oder Kämpfen.
In unregelmäßigen Abständen zufällig oder wenn die Expedition andere Einheiten oder besondere Orte findet gilt es Entscheidungen zu treffen. Teilweise sind das einfach Multiple-Choice-Entscheidungen, deren Ausgang je nach gewählter Entscheidung berechnet wird, wobei die Fähigkeiten und der Hintergrund der Expedition Optionen freischalten kann. Schon die fand ich gut geschrieben und unterhaltsam.
Kämpfe, angelehnt an Gwent
Andere male kommt es zu Kämpfen, wobei Kämpfe nicht gleich Kämpfe sind. In erster Linie sind die Kämpfe Kartenlegespiele wie Gwent oder Magic, bei denen nach einer Legephase in einer Kampfrunde Schaden verteilt wird. Aber nur wenn der Kampf ein echter Kampf ist gefährdet das die Lebenspunkte. Ist der Wettstreit dagegen z.B. eine Redeprobe sieht alles gleich aus, aber die Karten haben andere Werte und bei einem Scheitern ist das Leben der Expeditionsteilnehmer normalerweise nicht gefährdet. Thea benutzt das meist, um den Spieler eine Risikoabwägung machen zu lassen: Lohnt sich hier ein echter Kampf, um dadurch den gesamten Schatz zu ergattern? Oder reicht ein Kampf der Taktikwerte, der sicherer ist, aber bei dem manche Gegner samt der Beute entkommen werden?
Die jeweils benutzten Karten sind dabei immer die reisenden Dorfbewohner mit ihren jeweiligen Fähigkeiten.
Viel hängt dabei von der Ausrüstung ab, gerade in echten Kämpfen. Die wird gefunden oder im Dorf hergestellt. Die Qualität der selbstgebauten Ausrüstung hängt an den genutzten Ressource, die es in verschiedenen Güteklassen gibt – z.B. normales Holz, Elfenholz und Dunkelholz. Aber sowohl der Abbau besserer Ressourcen als auch die stärkeren Rezepte sowie weitere Gebäude müssen erst mit jeder Runde eintreffenden Forschungspunkten freigeschaltet werden.
Schwachstellen in einem motivierenden Spiel
Im Laufe der Runden entpuppen sich auch die Schwachstellen des Spiels. Denn doch einiges könnten besser sein. Manche der Ereignisse wiederholen sich zu häufig. Bei Spielende beklagte das Outro, ich habe eine Bedrohung der Giganten nicht aufgehalten, obwohl von der im Spiel nichts zu sehen war – ich vermute, dass der sie enthaltende Gratis-DLC nicht richtig installiert war. Der Inventarverwaltung fehlen Komfortfunktionen. Ich sah erst spät, dass im Forschungsmenü mehr als nur Ressourcen freigeschaltet werden können, dass die anderen Bereiche wie im Dorfmenü in Tabs versteckt sind. Das wiederum entlarvte, dass Forschung kaum nötig ist um das Spiel zu gewinnen. Und dass die verschiedenen Kämpfe identisch funktionieren ist an sich ein bisschen billig.
Doch das alles schadet kaum der Motivation, die sich durch Spielmechanik und Story ergibt. Im Laufe der Zeit, durch Forschung, Ausrüstung und den Wertesteigerungen wird die Gruppe immer stärker werden. Und ist dann besser gewappnet, die Story aufzulösen. In Thea war die Sonne verschwunden, die Dunkelheit folgte einem Kampf der Menschen gegen Götter und Magie, fast alles Leben wurde zerstört. Ihr wählt anfangs einen Gott und sollt in seinem Namen die Welt retten, nun da die Sonne wiedergekehrt ist. Es ist also eine Position der Schwäche am Anfang, was wunderbar zu den Survivalelementen passt. Denn anfangs sind die Ressourcen knapp, die Monster stark und die Welt wirkt durchaus bedrohlich, wenn nichtmal genug Nahrung für ein mittelweit entferntes Expeditionsziel da ist.
Diese Story wird dann ergänzt durch die vielen Zufallsereignisse, aber auch durch die Ereignisse der Hauptstory selbst. Denn auch für sie gibt es auf der Weltkarte Orte zu entdecken und Aufgaben zu lösen. Es motiviert sehr, so die langsam stärker und zahlreicher werdende Gruppe einem konkreten Ziel widmen zu können.
Thea: The Awakening kombiniert interessante Spielemechaniken zu einem gelungenen Ganzen, packt es in eine ausreichend motivierende Story und hat mit seinen vielen Ereignissen genug Spielinhalt, um mich nahezu zu begeistern. Ich war zumindest beeindruckt, wie gut das alles funktioniert – wobei mir viele der Spielinhalte auch liegen. So mag ich generell Textentscheidungen in Spielen, wie bei Knights of San Francisco selbst wenn es der Kern des Spiels ist; auch Kartenkämpfe mochte ich schon als Kind mit Magic, in weniger ferner Vergangenheit in Witcher oder kürzlich in Slay the Spire.
Dass dieser Mix an sich nicht übermäßig kompliziert ist, darauf bezog sich die Einleitung, aber das ist egal. Er wurde hier einfach sehr gut umgesetzt.
Obwohl es die Steamseite verschweigt – wohl weil sie die Unterstützung nicht offiziell machen wollten – läuft das Spiel nativ unter Linux. Das fehlende Bekenntnis zu dieser Version will ich einem kleinen Studio wirklich nicht ankreiden. So war sie einfach eine schöne Überraschung. Wie auch das Spiel selbst.
Das modulare Framework-Laptop sieht toll aus
Friday, 11. June 2021
Ich bin über ein Video gestolpert, in dem das Framework-Laptop näher gezeigt wird:
Das Framework-Laptop ist so modular, wie sie es hinbekommen haben. Das Gerät hat zuerst ein potentiell auswechselbares Mainboard, aufsteckbaren Ram und SSD, natürlich eine wechselbare Batterie.
Damit könnte ein guter Thinkpad jetzt fast noch mithalten. Aber mit den auswechselbaren Anschlüssen an der Seite nicht. Die sind nicht etwa fest eingebaut, sondern werden ebenfalls eingesteckt. Basierend auf USB-C kann so USB-C, USB-A, HDMI, Displayport, ein SD-Kartenleser und hoffentlich in Zukunft auch Ethernet frei gewählt werden. Und sogar Speicherplatz mit 250GB oder 1TB kann statt einem Anschluss eingebaut werden. USB-C 3.2 ist dafür schnell genug, wer mehr Speicherplatz haben will ohne den Aufpreis für extra-große SSDs zu bezahlen, für den ist das eine tolle Option.
Leider sind es nur vier Seitenanschlüsse, aber es ist auch nur ein 13.5"-Gerät. Es ist schade, dass der Prozessor nicht in einem Sockel sitzt, wie es früher auch bei Laptops üblich war. Bei dem R50 konnte ich noch den Prozessor wechseln, was ein nettes Upgrade war. Aber vielleicht war das mit Intels modernen Laptopprozessoren nicht mehr möglich. Dass es generell nur Intel-Prozessoren sind ist ebenfalls schade, AMD-Prozessoren sind auch für Laptops derzeit stärker. Und die farbigen Monitor-Bezels, die auf der Webseite z.B. in Orange zu sehen sind, gibt es noch nicht.
Sollte ich derzeit einen Laptop brauchen würde ich angesichts des regulären Preis vorher auch bestätigt haben wollen, dass Kühlung, Monitor, Tastatur und Touchpad so gut sind wie sie auf den ersten Blick wirken. Aber im Zweifel käme der hier ganz oben auf die Liste – vielleicht neben das günstige Pinebook Pro, falls auch ein schwächerer Laptop ausreichen würde. Ich finde das Konzept toll.
Man kann das Gerät in den USA und Kanada bereits vorbestellen, weitere Länder sollen später dieses Jahr folgen, wobei dann auch Deutschland dabei sein müsste. Die Webseite lässt bei der DIY-Version auch wirklich recht frei auswählen, welche Bestandteile sie liefern sollen und welche man selbst kauft. Inklusive des Betriebssystems, als Linuxer kann also der Preis für Windows gespart werden, den andere Kunden voll zahlen – so soll es sein.
Unepic - nicht episch, aber gut
Wednesday, 9. June 2021
Unepic ist ein 2D-Platformer-RPG von 2011. Viele von euch könnten es durch diverse Bundles schon in der Sammlung haben. Wer es aber wie ich bisher ignoriert hat darf sich freuen, denn es nachzuholen ist ziemlich spaßig.
Plötzlich Computerspielfigur
In Unepic spielt ihr Daniel, der eben noch auf dem Klo saß und plötzlich in der Spielwelt aufwacht. In diesem Schloss wird er direkt von einem körperübernehmenden Schattenwesen angegriffen, das aber mit Erschrecken feststellt, den jungen Mann nicht kontrollieren und seinem Körper auch nicht entfliehen zu können. Die Rolle des Begleiters ist damit besetzt, wobei das Schattenwesen wenig hilfreich an einem schnellen Ableben des Spielers interessiert ist.
Es gilt, Abschnitt für Abschnitt das Schloss zu erkunden. Überall lauern Gegner. Sie zu erledigen bringt Erfahrung, bei einem Levelaufstieg können die Fähigkeiten Daniels erhöht werden. Zum einen sind das die Waffenfähigkeiten, jede Waffengattung hat ihre eigene Stufe und man sollte sich spezialisieren. Dazu kommen Konstitution, das Brauen von Tränken und das Tragen von Rüstungen, was jeweils mehr Tränke bzw Rüstungen aktivierbar macht. Nach einer Weile stolpert Daniel zudem über Magie, z.B. Feuer- oder Schutzmagie, was ebenfalls gesteigert werden kann und ihn dann zusätzliche Zaubersprüche wirken lässt.
Spielinhalt: Mehr als Humor
Das Schloss ist eigentlich keins – die Abschnitte sind zu divers, so kommt man ziemlich direkt am Anfang in eine Mine. Aber es gibt Wächter, große Monster die einmal besiegt Schlüssel fallen lassen, mit denen dann der nächste Abschnitt geöffnet werden kann. Sie zu besiegen ist oft Knobelarbeit. Wie besteht man zum Beispiel gegen ein fliegendes Gehirn, das Daniel dazu bringt alle Tränke im Inventar auszukippen, während dessen er blockiert ist und kontinuierlich Schaden nimmt? Aber auch außerhalb der Bossgegner gibt es viele kleine Rätsel zu lösen und Tricks herauszufinden. Dazu kommen Nebenquests, die von teil sehr merkwürdigen Charakteren vergeben werden.
Denn das ist eine des Besonderheiten dieses Spiels: Unepic nimmt sich nicht besonders ernst. Oder zumindest pflegt es einen Humor, den das Spiel selbst als nerdig bezeichnet. So ist Daniel sehr lange davon überzeugt, dass er in einem Drogentrip festhängt und nichts was er erlebt echt ist, entsprechend reißt er Sprüche und scheint lange nur durch seinen distanzierten Übermut weiterzukommen.
Fazit: Mehr als erst sichtbar
Unepic hat minimale Hardwareanforderungen und ist damit ein guter Kandidat, falls man keine dedizierte Grafikkarte besitzt und trotzdem etwas spielen will. Die 2D-Grafik ist weit entfernt von einem Hollow Knight (und auch die Atmosphäre reicht nicht an diese schwerere Alternative heran), aber sie funktioniert und ist – anders als so mancher Pixellook – nicht abschreckend. Die Steuerung ist das schon eher. Bei mir funktionierte die im Menü aktivierbare Controllersteuerung gar nicht, aber das Interface ist sowieso 100% auf Bedienung per Tastatur ausgelegt. Das liegt mir bei diesem Genre nicht, aber bei Unepic man kann sich in die Tastatursteuerung reinfinden.
Das Spiel mag im ersten Moment so wirken als wäre es zu sperrig. Doch Unepic entpuppt sich dann als ein ziemlich solider Genrevertreter, der anfangs abgesehen von der Steuerung eher simpel ist, dann im Spielverlauf mit Leveldesign, Items und den Magiesystemen sich ausbaut. Der Ton des Spiels mag humorig sein, aber der Spielinhalt ist völlig ernst und auch die Story wird gut erzählt. Empfehlenswert.
Trafficverbrauch eines Videos
Monday, 7. June 2021
Nach dem Artikel mit dem Gource-Video habe ich mich gefragt, welchen Effekt es für diesen Blog und seinen Bandbreitenhunger hat wenn ich hier Videos hoste.
Das Gource-Video war 77MB groß. Ich schrieb noch im Artikel, dass das für zweieinhalb Minuten zu viel ist. Aber Im Vergleich zu was sonst so im Internet oft auf Seiten sitzt ist das ja winzig. Es kleiner zu kriegen hatte mich zwar interessiert und meine Versuche dazu waren daher Teil des Artikelinhalts, aber das war technische Neugier, keine gefühlte Notwendigkeit. Sieht man so ein Video eines bisher kommentarlosen Artikels überhaupt in der Bandbreitennutzung dieses Blogs?
Tatsächlich tut man das sehr deutlich. Zwischen dem Server und dem Internet sitzt Cloudflare. Cloudflare misst den Trafficverbrauch und zeichnete mir diesen Graphen:
Das simple Video verzehnfachte den Verbrauch, von normalerweise etwa 400MB auf 4GB.
Kurioserweise sieht vultr, der Hoster des Blogs, ganz andere Werte. Auch bei dessen Messung ist eine deutliche Trafficspitze zu sehen:
Aber die Zahlen sind deutlich geringer.
Ich kann den Unterschied nicht erklären. Cloudflare wirkt zwar auch als Cache. Aber den Daten zufolge ist das Video nicht richtig von Cloudflares Cache aufgegriffen worden, die Cachenutzung war nur minimal erhöht:
Wo sind die restlichen Gigabyte geblieben?
Trotz des Unterschieds zeigen die Graphen welchen enormen Effekt es haben kann, Videos im Blog hochzuladen. Bei meinem Inklusivtraffic ist da zwar noch viel Luft bis zur Grenze, ab der ich dann draufzahlen müsste. Aber sie scheint erreichbar. Wäre der Eintrag beliebter gewesen und mehr geteilt worden wäre auch das Video öfter heruntergeladen worden. Und dann will man das vielleicht nicht nur einmal machen, sondern veröffentlicht mehrmals im Monat ein neues Video. Bei Bloggern mit generell mehr Besuchern würde so der Trafficbedarf auch mit der regulären Besucherzahl ein Thema werden. Bei Videos im Blog lohnt sich also schnell ein Hostingpaket mit mehr freiem Trafficverbrauch.
Oder man packt es eben einfach auf YouTube oder PeerTube. Was ich bewusst nicht getan hatte: Bei beiden ist das ewige Fortbestehen des Videos nicht gerade sicher. Aber bei mehr Besuchern und mehr oder größeren Videos überwöge schnell der Nutzen dieses Bedenken.
Die Entwicklung von Serendipity im Zeitraffer und Optimierungsversuche mit Gource
Wednesday, 2. June 2021
Drüben bei gnulinux.ch bin ich über Gource gestolpert. Gource braucht man nur ein Git-Repository zu geben, damit es aus der der dort gespeicherten Aufzeichung ein Video mit einer Visualisierung der Entwicklung erstellt. Tatsächlich kannte ich die Visualisierung aus einem Youtubevideo, aber ich hatte keine Ahnung, dass sie mit frei verfügbarer Linxusoftware erstellt wurde. Und mir gefiel die Konfiguration der Darstellung, die im Artikel vorgeschlagen wird.
Das ist die nicht ganz komplette Entwicklung von Serendipity:
Ich finde es toll zu sehen, wie viele Entwickler da am Wirken waren und wie Garvin von der Software ins Zentrum gestellt wird. Und natürlich bereitet es ganz besonders Freude, wenn der eigene Name auftaucht und den Dateibaum verändern beginnt.
So ein Video zu erstellen ist einfach. Gource war auch bei Void Linux in den Quellen. Einmal installiert, muss nur das Git-Verzeichnis erstellt, darein gewechselt, Gource gestartet und die Ausgabe an FFmpeg übergeben werden:
git clone git@github.com:s9y/Serendipity.git Serendipity.git cd Serendipity.git gource -1280x720 --date-format %Y-%m-%d --seconds-per-day 0.025 --auto-skip-seconds 0.05 --no-time-travel --stop-at-end --highlight-users --max-user-speed 125 -r 30 -o - | ffmpeg -y -r 30 -f image2pipe -vcodec ppm -i - -vcodec libx264 -preset medium -pix_fmt yuv420p -crf 18 gource.mp4
Tatsächlich habe ich aber viel Zeit in den Versuch versenkt, das zu optimieren. Ich wollte FFmpeg statt .mp4 erst .ogv und dann .webm mit VP9 erstellen lassen. Denn das mit H.264 gebaute und oben eingebundene .mp4 ist immerhin 77 MB groß.
Übrigens das erste mal seit langer Zeit, dass ich mir einen stärkeren Prozessor gewünscht habe. Videos zu enkodieren ist einfach heftig. Aber auch beeindruckend, dass die 4GB große .ppm problemlos auf unter 100MB gebracht werden kann.
Beim Versuch, eine kleinere Datei als die obige für diesen Artikel zu erhalten, orientierte ich mich an der Dokumentation von FFmpeg und den Hinweisen von Google. Aber die Videos waren entweder größer oder mit mehr sichtbaren Kompressionsartefakten. Und das selbst bei der Two-Pass-Enkodierung, die ich so versuchte:
gource -1280x720 --date-format %Y-%m-%d --seconds-per-day 0.025 --auto-skip-seconds 0.05 --no-time-travel --stop-at-end --highlight-users --max-user-speed 125 -r 30 -o gource.ppm ffmpeg -y -r 60 -f image2pipe -vcodec ppm -i gource.ppm -c:v libvpx-vp9 -b:v 0 -crf 37 -pass 1 -row-mt 1 -an gourceq37.webm ffmpeg -y -r 60 -f image2pipe -vcodec ppm -i gource.ppm -c:v libvpx-vp9 -b:v 0 -crf 37 -pass 2 -row-mt 1 -an gourceq37.webm
Das produzierte relativ große Dateien (hier 130MB), während die Google-Vorgaben sehr kleine (22MB), aber deutlich sichtbar komprimierte Videos erstellten:
ffmpeg -y -r 60 -f image2pipe -vcodec ppm -i gource.ppm -vf scale=1280x720 -b:v 1800k -minrate 900k -maxrate 2610k -tile-columns 2 -g 240 -threads 4 -quality good -crf 32 -c:v libvpx-vp9 -an -pass 2 -speed 4-y gource_google.webm ffmpeg -y -r 60 -f image2pipe -vcodec ppm -i gource.ppm -vf scale=1280x720 -b:v 1800k -minrate 900k -maxrate 2610k -tile-columns 2 -g 240 -threads 4 -quality good -crf 32 -c:v libvpx-vp9 -an -pass 2 -speed 4 gource_google.webm
Kein guter Startpunkt.
Die Single-Pass-Kodierung ist laut der Dokumentation nicht empfohlen, und tatsächlich lässt sich mit ihr zwar etwa die gleiche Größe erreichen:
gource -1280x720 --date-format %Y-%m-%d --seconds-per-day 0.025 --auto-skip-seconds 0.05 --no-time-travel --stop-at-end --highlight-users --max-user-speed 125 -r 30 -o - | ffmpeg -y -r 30 -f image2pipe -vcodec ppm -i - -vcodec libvpx-vp9 -preset medium -pix_fmt yuv420p -crf 30 -row-mt 1 gource.webm
Aber das Video sieht ein bisschen schlechter aus. Und mit schlechterer Qualitätsstufe (hier 35) leidet die Darstellung dann deutlich:
Wenn ich mir die Dateigrößen und die Qualität von ja oft deutlich längeren Youtube-Videos anschaue glaube ich, dass das besser gehen müsste.
Kommt VP9 generell schlecht mit dem Blur zurecht? Oder ist der Kodierer in FFmpeg subobtimal? Gibt es doch einen Weg, die Komprimierung des .mp4-Video bei visuell gleicher Qualität zu schlagen?
Trackbacks für Serendipity mit PHP 8
Wednesday, 26. May 2021
Kleine Wasserstandsmeldung aus gegebenem Anlass.
Die Arbeit, um Serendipity mit PHP 8 kompatibel zu machen, ist noch nicht fertig. Aber sie ist weit vorangeschritten. Ich habe mittlerweile alle Backend- und Frontendfunktionen getestet und fast alle mit Standardtheme und vorinstallierten Plugins zum Laufen gebracht.
Ein wichtiger noch fehlender Baustein waren die Trackbacks. Die Kommentare bei Dirks Bloggeburtstag waren sicher der Anlass sie jetzt zu testen, auch wenn mir das gestern Abend gar nicht bewusst war. Es war eine Erinnerung, deretwegen ich den Test vorzog, an die ich in dem Moment nicht mehr direkt dachte. Ihr kennt das bestimmt.
Tatsächlich waren die Trackbacks kaputt. Die Korrekturen sind größtenteils Kleinigkeiten. Auf einem Server, der Warnungen verschluckt, würde wahrscheinlich auch jetzt schon alles laufen. Aber die Warnungen zu reparieren kann der Codequalität nur dienen und Warnungen werden eben nicht immer ausgeblendet, was dann Funktionen kaputtmachen kann.
Bei den Trackbacks speziell ist, dass der Browser ja gar keine Daten sendet. Das machen die Server unter sich aus, was im Zweifel schwer zu beobachten ist. Wir haben Logs, aber die zeigen bei PHP-Fehlern nur wo der Empfang abbricht. Um das richtig zu debuggen sendete ich den Trackback stattdessen mit curl:
curl -X POST -d 'type=trackback&entry_id=16&url=https://example.com/s9y_dev/index.php?/archives/19-trackbacktest-2.html&title=trackbacktest 2&blog_name=John Doe personal blog&excerpt=link2' https://example.com/s9y_dev/comment.php
So waren die Fehler schnell sichtbar und relativ einfach zu reparieren.
Es fehlt, das gleiche mit Pingbacks (ggf. via Wordpress) zu testen. Ansonsten müssten noch die restlichen Plugins und Themes durchgegangen werden. Ich habe mir vorgenommen, die mitgelieferten Plugins, die populären in Spartacus und die modernen Themes tatsächlich noch selbst anzusehen. Damit müsste eine PHP-8-kompatible Beta dann in Reichweite sein, wobei gerade die Plugins selbst bei Beschränkung auf die populäreren noch ein ziemlicher Brocken sein könnten.
Plasma und postmarketOS zeigen das Potential des Pinetabs
Wednesday, 19. May 2021
Bei meinem ersten Kontakt mit dem Pinetab funktionierte im Grunde noch nichts. Mein Fazit war entsprechend verhalten. So konnte ich mit dem Gerät wenig anfangen und mir auch nicht vorstellen, darauf oder dafür etwas zu entwickeln. Nach dem Artikel schaute ich ab und an mal nach Updates für Ubuntu Touch, aber da erschien nichts. Jetzt kam ich endlich dazu ein anderes Betriebssystem auszuprobieren und es ist wie von den Kommentatoren prophezeit: Das Pinetab steht gleich viel besser da.
postmarketOS als Rettung
Mein doch noch positiver Ersteindruck des Konzepts war mit der Zeit von der Unbrauchbarkeit der Software überlagert worden. Ohne den Blogartikel hätte ich ihn vergessen. Teilweise geht das nunmal fließend ineinander über: Wenn Youtube-Videos abzuspielen ruckelt, ist dann die Software schuld oder schlicht der Prozessor zu schwach? Im Fall des Pinetabs war die Software schuld, denn mit dem von postmarketOS (v21.03) bereitgestelltem Firefox funktioniert sowas. Wobei Firefox auch mit seiner besseren Performance und Adblocker generell das Internet nutzbar macht.
Plasmas Mobilvariante wirkt generell wie eine gute Oberfläche, aber es ist die Kombination mit postmarketOS und den zugänglichen Linuxprogrammen, die das Pinetab plötzlich wirklich brauchbar wirken lassen. Einen echten Editor zu haben ist Gold wert, dazu VLC und eben Firefox, schon ist das System nutzbar. Dazu kommt die nun funktionierende Tastatur. Wann immer die Toucheingabe zu nervig wird (was schnell passiert) wird eben die Tastatur angesteckt. Zusammen mit den Desktopprogrammen ist das Pinetab dann kein Tablet mehr, sondern ein kleiner Laptop. Das ist nicht nur nett, dafür könnte ich tatsächlich einen Nutzen haben.
Aktueller Eindruck der Hardware
Wird das Pinetab also ausschließlich von der Software zurückgehalten und ist ansonsten das perfekte Tablet/Laptopmischgerät? Nein, das nun auch nicht. Tablets sind für mich immer reine Multimediagerät gewesen (mit einer Ausnahme, als ich ein Notfallgerät für einen Urlaub brauchte), wofür das Pinetab sich nicht wirklich eignet, denn die Lautsprecher sind schlecht und zeigen nach hinten.
Zudem ist das Display an sich gut, aber die Displayhelligkeit etwas zu gering wenn sich die Sonne im Bildschirm blendet. Das schränkt die Nutzbarkeit als Multimediatablet noch weiter ein. Beides wird nicht durch Software gelöst werden können.
Bleibt der Laptopmodus. Hier könnten die beiden Hardwareschwächen eher ignoriert werden. Allerdings: So cool ich die Magnettastatur mit ihrem Faltständer auch finde, wabbelt sie beim Schreiben doch deutlich. Auch ist das Touchpad kein besonders gutes.
Das geht zur Not, ich könnte damit arbeiten, aber dass ich es nicht unbedingt ausprobieren will ist kein gutes Zeichen. Und ob die eingebaute Kamera nach Softwareupdates mal gut genug für eine Videokonferenz sein wird? Es fehlt auch schlicht ein Scharnier, um das Tabletlaptop zuklappen zu können, ohne das der obere Abschnitt auf die Tastatur kracht.
Dazu kommen generelle Qualitätsprobleme der in diesen Punkten dann prototypisch wirkenden Hardware. Wenn das Tablet aus ist will es manchmal nicht angehen, ich muss mehrfach – und unterschiedlich lange? – auf den Anschalter drücken. Vorhin wollte der Einrastmodus der SD-Karte einfach nicht greifen, bis es irgendwann doch ging. Auch die Abdeckung des SD-Kartenslots ist unglücklich gestaltet, zum einen schwer aufzumachen, zum anderen nur gesichert mit einem dünnen Plastikstreifen der garantiert irgendwann abreißen wird. Und dass das Ladegerät nicht USB-C ist: Schade; Dass es nichtmal Mikro-USB ist: Schwer verdaulich.
Diese frühe Version des Pinetab könnte sich auch mit bester Software am Markt nicht behaupten. Es fehlen ein paar Upgrades, eine Revision 2. Wobei solche Hardwarerevisionen tatsächlich in den Blogartikeln von Pine64 immer mal wieder erwähnt werden, ich habe nur nicht den Überblick auf welchem Stand die nächste ausgelieferte Variante sein wird.
Aktueller Eindruck der Software
Wobei die Software sowieso nicht fertig ist. Doch immerhin ist der Unterschied zur Anfangssituation mit der damaligen Version von Ubuntu Touch, dass ich damit nichtmal ansatzweise gewusst hätte wo man ansetzen müsste um das System fertigzustellen.
Bei postmarketOS mit Plasma sind die Macken klar und scheinen beherrschbar:
- Die Autorotation streikt wenn beim Start die Tastatur angesteckt war,
- Wlan verbindet sich nicht automatisch,
- die Pineingabe beim Login lässt sich nicht deaktivieren,
- im Firefox geht die Bildschirmtastatur nicht zuverlässig auf,
- es fehlen Icons in Programmen wie gedit,
- die Anzeige der Benachrichtigungen in komischen KDE-Fenstern ist hässlich.
In der Summe blockieren solche Probleme die komfortable Nutzung durchaus. Aber es ist nicht mehr zum Haare raufen. Zumal diese Fehler alle lösbar scheinen. Als Entwickler des Systems mit einem solchen Testgerät wäre mir klar, welche Probleme anzugehen sind. Dementsprechend ist es völlig möglich, dass Mobian und Phosh oder eine zukünftigen Variante von postmarketOS (ob mit Phosh oder Plasma) all diese Probleme lösen.
Das als erreichbar sehen zu können stimmt mich zuversichtlich. Nicht nur für die Zukunft des Pinetabs, sondern auch für Standardlinux als Alternative zu Android generell. Die Grundlage ist da. Mit einer soliden Grundauswahl an Apps wird das System als Alternative taugen. Und wie toll wäre es, neben Androidvarianten wie LineageOS und /e/ dann postmarketOS bei sustaphones aufnehmen zu können?
Fazit: Es wird
Die Softwareverbesserungen verwandeln das Pinetab. Vorher wurde der Reiz des Konzepts überdeckt von all den Problemen. Jetzt gibt es immer noch Macken, aber sie sind geringfügiger, sodass das Konzept wieder scheinen kann. So wird deutlich, was für ein nettes Gerät das Pinetab im Kern ist. Mit seiner ansteckbaren Tastatur und mit den außerhalb von Ubuntu Touch verfügbaren Linuxprogrammen wird es zum ultraleichten Laptop mit abnehmbaren Touchdisplay. Was ein Format ist, in dem GNU/Linux als Windows- und Androidalternative eine gute Nische haben könnte.
Das Pinetab was ich hier habe ist eindeutig noch eine Entwicklervariante, unfertig und mit Macken die es vom Massenmarkt disqualifizieren. Aber so wie es jetzt ist kann es die Rolle eines Entwicklergeräts durchaus füllen. Wollte ich jetzt eine NewPipe-Alternative für mobile Linuxgeräte schaffen wäre das Pinetab nun ein gutes Testgerät dafür. Damit erfüllt es völlig sein erklärtes Ziel. Und erfüllte es vielleicht auch vorher schon, wenn es neben dem Pinephone, dem Librem 5 und den als Entwicklungsplattform genutzten Androidgeräten dazu beitragen konnte, dass die Entwickler von Plasma und postmarketOS und den anderen Alternativen diesen Stand erreichen konnten.
Was genau wurde bei Audacity verkauft?
Monday, 17. May 2021
Das Softwareprojekt kann es nicht gewesen sein.
Der vermeintliche Verkauf von Audacity wirft weiterhin Fragen auf. Das kam jetzt wieder auf im Nachklang des Telemetrie-Debakels, als Audacity direkt nach der sogenannten Übernahme Telemetriedaten an Google und Yandex senden wollte. Doch was wissen wir über diese Änderung im Projekt überhaupt?
Was wurde berichtet
Caschy nannte es in seinem Blog eine Übernahme. Bei Audacity auf der Webseite wurde nur eine Mini-Nachricht gepostet, Audacity has just joined Muse Group. Das ist auch dort nur ein Zitat von Martin Keary (Tantacrul), der dort ein Projekt leitet und jetzt auch Audacity leiten soll. Er selbst hat dazu ein Youtube-Video veröffentlicht und das hat einen eindeutigen Titel: I’m now in charge of Audacity. Seriously.
Tantacrul kommt in dem Video positiv und überlegt rüber, interessiert am Projekt. Das ist nicht das Problem. Die Frage ist, wie diese Übernahme zustandegekommen sein soll. Er beschreibt das zu Beginn des Videos so:
Well, in short: Audacity has just joined Muse Group, a collection of brands that includes another popular open source music app called MuseScore, which I’m currently in charge of. And since things are going rather well at MuseScore, I was asked to step up and also manage Audacity in partnership with its open source community.
Was genau das ist, was auch bei der Audacity-Webseite als Zitat genommen wurde.
Was genau ist Muse Group? Sie beschreiben sich selbst auf ihrer Webseite. Es ist ein Unternehmen. Und in der Timeline steht auch, wie sie Audacity einordnen: Als acquired, also gekauft, oder zumindest unter der eigenen Kontrolle stehend.
Was, wie ich eingangs behauptet habe, nicht sein kann. Doch dafür müssen wir uns angucken, aus welchen Bestandteilen Audacity besteht und was davon kaufbar ist.
Audacitys Bestandteile als kaufbare Objekte
Ohne in irgendeiner Form bei Audacity involviert zu sein, ist das folgende mein Verständnis des Projekts.
Der Code
Die einfachste Variante bei einem proprietären Softwareprojekt wäre der Kauf der Rechte am Code, also dass jemand den Code einer Software und damit die Software selbst kauft. Doch das ist bei Audacity kaum möglich. Zuallererst, weil die Software unter der GPL 2 steht, wie die Webseite selbst verlinkt. Im Kern bedeutet diese Lizenz, dass jedem Nutzer der Software vier Freiheitsrechte zustehen:
- Sie zu nutzen wie man will, für jeden Zweck
- Die Software anzupassen
- Die Software weiterzugeben
- Die Software in veränderter Form weitergeben zu dürfen
Die GPL formuliert das anders und hat andere konkrete Klauseln bezüglich der Urheberauflistung etc, aber auf das läuft es hinaus.
Gleichzeitig hat die GPL die Klausel, dass abgeleitete Varianten der Software ebenfalls unter der GPL bzw kompatiblen freien Lizenzen stehen müssen. Was der Kernunterschied zu BSD- und MIT-Lizenzen sind, die insoweit "freier" sind, als dass bei ihnen die Freiheiten nicht für abgeleitete Werke gelten müssen.
Allerdings berührt die GPL nicht das Urheberrecht. Der Erschaffer ist weiterhin der Urheber. Das ist im deutschen Urheberrecht sowieso so, in den USA aber nicht, dort hat das massiv Bedeutung. Lizenzen wie die GPL nutzen das Urheberrecht, um die Rechte die sie einräumen wollen durchzusetzen.
Jetzt kann natürlich die Muse Group hingehen und das Urheberrecht kaufen. Bzw in Deutschland könnten sie die Verwertungsrechte kaufen. Allerdings stünde die Software weiterhin unter der GPL 2. Die Lizenz kann nicht nachträglich entzogen werden. Der Käufer hätte also Rechte an einem Produkt gekauft, das jedem Empfänger desselben umfassendste Rechte einräumt. Inklusive aller Verwertungsrechte, die bei proprietärer Software ein Käufer für sich beanspruchen würde, wie das Weiterverbreiten des Produkts zu einem beliebigen Preis bei zwingend offenem Quellcode.
Das komplette Urheberrecht zu besitzen könnte ihnen dann aber erlauben, neben Audacity unter GPL-Lizenz eine Variante unter einer anderen Lizenz zu veröffentlichen. Sogar unter einer proprietären. Solche Konstruktionen gibt es, sie sind nichtmal besonders unüblich.
Allerdings: Alleine auf Github werden 127 Mitentwickler gelistet. Bei einem so alten Projekt wie Audacity reicht der Quellcode noch viel weiter zurück als Github bekannt, die Liste ist in Wirklichkeit viel länger, endet Githubs Aufzeichnung doch bereits 2015. Es ist höchst unwahrscheinlich, dass bisher alle diese Entwickler ihre Urheber- bzw Verwertungsrechte an eine wie auch immer geartete bisher unbekannte Audacity-Institution übertragen haben. Denn zum einen ist diese Idee der Rechteübertragung bei FOSS-Projekten relativ neu. Zudem ist sie wahrscheinlich nicht über alle verschiedenen Rechtssysteme hinweg umsetzbar. Und außerdem finde ich dazu nichts in der Entwicklerdokumentation, während solche zu treffenden Erklärungen sonst normalerweise prominent erwähnt werden.
Es gab also höchstwahrscheinlich keinen einzelnen Ansprechspartner um den Code zu kaufen. Die Muse Group hätte mit jedem einzelnen Entwickler reden müssen, sie alle überzeugen und im Zweifel fürstlich bezahlen müssen. Unwahrscheinlich. Wenn das doch gelang bin ich beeindruckt.
Doch selbst wenn ich mich da vertue und seit zwanzig Jahren jeder einzelne Entwickler sein Urheberrecht nach US-Rechtssprechung auf eine natürliche Person oder ein Unternehmen übertragen hat: Selbst dann stünde noch die GPL. Und die kommerzielle Vermarktung einer solchen Desktop-Audiosoftware unter Doppelt-Lizensierung erscheint mir sehr schwierig.
Zusammenfassend: Rein praktisch war der Code und damit die Software nicht kaufbar, und selbst wenn dieser Kauf gelungen wäre hätte der Käufer in diesem Fall einer Desktopsoftware damit kaum praktisch verwertbare Rechte erworben.
Das Team
Manchmal ist bei Übernahmen gar nicht die Software das Ziel, sondern es sind die Entwickler, deren Arbeitsverträge gewonnen werden sollen. Auch das ist hier höchst unwahrscheinlich.
Zum einen passt es nicht zu dem Video. Was dort beschrieben wurde ist das Ziel, Audacity weiterzuentwickeln. Und das mit einem Ernst, Respekt und in einem Detailgrad, dass diese Ankündigung nicht das durchaus übliche Gelaber bei Silicon-Valley-Übernahmen zu sein scheint.
Zum anderen müssen dafür die Entwickler Teil einer kaufbaren Organisation sein. Gab es denn ein Unternehmen, das die Audacity-Entwickler beschäftigt hat? Ein solches Unternehmen wird zumindest weder auf Wikipedia noch auf der Webseite des Projekts erwähnt. Nein, Audacity wirkt wie die meisten FOSS-Projekte, bei denen die Entwicklung von wenigen Frewilligen getragen wird.
Von Paul Licameli zum Beispiel, der auch im obigen Video auftritt. Er ist zwar laut LinkedIn von einem audacity-Team beschäftigt. Dieser vermeintliche Arbeitgeber verlinkt aber nur zur Audacity-Webseite, die kein Impressum hat und keinerlei Unternehmensform auflistet.
Eine mögliche Konstruktion könnte sein: Es gab hier zwar kein Unternehmen. Aber es gab ein Team, das sich als moralischer Besitzer von Audacity gesehen hat. Und diese Entwickler werden jetzt von der Muse Group beschäftigt. Aber davon war bisher keine Rede. Und auch Paul hat bisher seinen Arbeitgeber auf LinkedIn nicht angepasst.
Und selbst wenn in irgendeiner Form die Kernetwickler gewonnen werden konnten: Selbst dann wäre Audacity selbst nicht Teil des Deals gewesen. Fortan Kernentwickler zu beschäftigen gibt in der Praxis Macht, aber es gibt dem Unternehmen am vorher geschaffenen keine Eigentumsrechte. Audacity wäre weiterhin rechtlich nicht Teil der Muse Group.
Intellectual Property
Intellectual Property (IP) gibt es eigentlich nicht, es ist eine Wahnsinnsidee bekloppter Kapitalisten. Aber okay, wenn es etwas als Idee gibt, dann existiert es eben doch. Und es gibt existierende legale Konstrukte, die so bezeichnet werden. Patente zum Beispiel. Es könnte eine Instutition geben, die mittelbar durch Audacity Patente besitzt. Audacity wurde 1999 an der Carnegie Mellon University gestartet und Universitäten sind berüchtigt dafür, solche diffuse Eigentumsrechte geltend zu machen. Vielleicht hat Muse diese Universität bezahlt, damit etwaige Ansprüche abgetreten wurden. Darauf gibt es aber keine Hinweise.
Ein anderes Beispiel für IP sind Marken (Warenzeichen). Und die sind hier wahrscheinlich im Spiel. Denn es ist auffällig, dass auf der Webseite von Audacity immer von Audacity® die Rede ist. Das ist sehr unüblich für nicht unternehmensgetragene FOSS-Projekte. Es sei eine registered trademark. Sowas wäre kaufbar. Und die Marke gibt es tatsächlich:
Dem Eintrag zufolge registriert von Dominic Mazzoni, einem der Gründer der Software, und jetzt im Besitz der uns bekannten Muse Group. Das einzige direkt greifbare Element im ganzen Puzzle, das gekauft werden konnte, wurde von der Muse Group tatsächlich erworben.
Nur ändert das nicht unbedingt viel. Denn die Marke zu besitzen bedeutet nur, die Marke zu besitzen. Es bedeutet nicht, zusätzliche Ansprüche an Quellcode oder an Loyalität der Entwickler zu haben; An dem Produkt, auf das sich die Marke bezieht.
Audacity wurde nicht verkauft
Mein Ergebnis ist, dass Audacity nicht verkauft wurde. Also nicht das Softwareprojekt. Es konnte nicht verkauft werden. Es gab keinen vorherigen klaren Besitzer und deswegen keine verwertbaren Eigentumsrechte.
Ich vermute es ist folgendes passiert: Die Leute im Audacity-Projekt und die Muse Group haben gesprochen. Und vielleicht waren die aktiven Projektteilnehmer auch wirklich daran interessiert, Audacity mit einer Firma zusammen zu entwickeln. Da könnten Absichtserklärungen abgegeben worden sein. Und an irgendeinem Punkt floss bestimmt sogar Geld. Aber alles, was damit praktisch gekauft werden konnte war die Marke Audacity.
Die Marke und damit das geflossene Geld gibt der Muse Group praktisch null Rechte. Sie könnten damit Forks der Software zwingen, einen anderen Namen zu benutzen. Aber es ändert nichts an den gewährten Freiheitsrechten via der GPL 2, nichts an den Eigentumsverhältnissen des Codes. Und auch nichts an der Machtstruktur im Projekt – außer praktisch, wenn sie die Adminrechte am Github-Projekt übertragen bekommen haben.
Muse Group kann aber natürlich trotz der fehlenden rechtlichen Bindung mit den FOSS-Entwicklern von Audacity zusammenarbeiten. Sie wollen Usability-Studien machen, scheinbar Usability als Prozess in die Entwicklung einbringen. Das könnte eine gute Sache sein.
Aber diese vermeintliche Übernahme gibt ihnen in Wirklichkeit wenig Macht über das Projekt. Muse hat wahrscheinlich nur eine fast wertlose Wortmarke gekauft. Nicht ganz wertlos, weil man ja mit einer so bekannten Marke doch irgendwie Geld verdienen kann. Aber doch fast wertlos, weil mit ihr kaum Kontrolle über das Produkt und Projekt selbst ausgeübt werden kann.
Nun frage ich mich: Wissen die das? Es ist zwar schwer vorstellbar bei einer Firma, die mit FOSS arbeitet, aber Fehler können immer passieren. Hatte die Muse Group vielleicht den Eindruck, wirklich das Audacity-Projekt zu kaufen?
Und: Wissen die Audacity-Entwickler, dass in Wirklichkeit weiterhin sie das Projekt kontrollieren könnten? Oder meinen sie wirklich, dass ihr Code und ihre Urheber-/Verwertungsrechte nun jemand anderem gehören?
Viel könnte hier auch einfach falsch kommuniziert worden sein. Vielleicht ist allen Beteiligten die Lage durchaus klar. Tantacrul könnte der Projektleiter des internen Audacity-Projekts bei Muse Group sein und das eigentliche Audacity-FOSS-Projekt gewillt, ihn mal eine Weile walten zu lassen. Geschenkter Usability-Arbeit sollte man nicht ins Maul schauen. Gekauft wurde nur die Marke, aber effektiv die Leitung aus Gutdünken eben auch überlassen, weil es sonst niemand machen wollte oder weil die Überzeugung da war, dass er das am besten kann. Wie es in einer Meritokratie eben passieren kann. Und als die Verlautbarungen dann erstmal missverstanden wurden hatte niemand Interesse daran, das sofort öffentlich auszudiskutieren.
Oder nur einer täuschte sich hier lautstark. Tantacrul schrieb ja selbst im Issue zur Telemetrie-Korrektur:
The first few questions are the ones most people want to know the answer to, I think. The only reason I'm not jumping on it right away is because I don't want to get any details wrong.
My role is product direction and design and I really want to publish a vision properly so it can be commented on more broadly. I'd prefer not to outline it all in text here.
I hope you understand. The issue I'm addressing in this discussion is super sensitive and I don't want to get anything wrong that might come back to haunt me. We are painfully aware there is a dearth of information and it is being sorting out.
Er hat also von dieser Übernahme gar nicht wirklich Ahnung. Wenn nur er missverstanden hat, wovon er jetzt tatsächlich der Leiter ist, wollte ihn vielleicht niemand blamieren.
Audacity wurde gekapert?
Wie auch immer: Ich bin ziemlich sicher, dass die Muse Group nicht wirklich der Besitzer des Softwareprojekts Audacity ist. Sie hätten dafür die urheberrechtlichen Verwertungsrechte aller bisherigen Entwickler kaufen müssen. Ganz vielleicht haben sie stattdessen eine Rechteabtretung der aktiven Kernentwickler und/oder die Absprache gekauft, ab jetzt das Projekt zu kontrollieren. Und wollen später mit proprietären Zusatzdiensten Gewinn erzielen. Das könnte funktionieren, wenn sie direkt oder indirekt Adminrechte auf der Webseite und im Github-Projekt haben und solange niemand mit ähnlicher praktischer Macht sie herausfordert, ist aber keinesfalls wasserdicht.
Der Kauf der Audacity-Marke wäre für eine solche Machtübernahme allerdings ein verwertbarer Baustein. Wenn das aber hier so gelaufen ist, dann ist es höchst bedenklich. Praktisch würde es bedeuten: Jedes Softwareprojekt kann von einer Firma gekapert werden, wenn die Firma alle Entwickler mit Adminrechten an der existierenden Entwicklungsstruktur (Github, Webseite) bestechen kann. Entwickler ohne solche Rechte hätten dabei kein Mitspracherecht. Nur bei der GPL könnten sie zumindest eine Lizenzänderung verhindern.
Ich könnte mich natürlich täuschen. Der Artikel ist auch deswegen so lang, weil ich im Laufe des Schreibens immer mehr Optionen gesehen habe, wie die Muse Group nun doch faktisch das Projekt kontrollieren könnte ohne der echte Besitzer zu sein. Ich bin daher gespannt, ob und wie sie die Übernahme erklären werden. Denn wenn es ein simples Kapern der Leute mit Adminrechten war: Dann stinkt die Aktion mehr als ich initial glaubte.
Ein Printstylesheet für den Blog
Tuesday, 4. May 2021
Dieser Blog hat neues CSS für die Druckdarstellung bekommen. Der Artikel zur Witcherserie als Beispiel sieht im Web so aus:
Ausgedruckt – bzw mittels der Druckfunktion zum PDF umgewandelt – und dabei auf ein Blatt herunterskaliert kommt das dabei raus:
Erreicht wird die angepasste Darstellung durch dieses CSS, das ich einfach der regulären CSS-Datei hinzugefügt habe:
@media print { #serendipitySideBarContainer { display: none; } #content { width: 100%; } #serendipityCommentFormC { display: none; } .shariff { display: none; } .dsgvo_gdpr_footer { display: none; } #siteNav { display: none; } body { font-family: Iowan Old Style, Apple Garamond, Baskerville, Droid Serif, Times, Source Serif Pro, Apple Color Emoji, Segoe UI Emoji, Segoe UI Symbol, Times New Roman, serif; border: none; } html { background-color: white; } .serendipity_entry_body { column-width: 17em; column-gap: 3em; } .serendipity_entry_body a[href*='//']::after, serendipity_commentBody a[href*='//']::after { content: " (" attr(href) ")"; } a { color: black !important; text-decoration: underline !important; } #serendipity_banner { display: none; } #mainpane::before { content: "onli-blogging"; display: block; } .serendipity_title a { text-decoration: none !important; } .serendipity_title, .serendipity_date { break-after: avoid; break-after: avoid-page; } br + .serendipity_commentsTitle, .nocomments { display: none; } .serendipity_entryFooter, .serendipity_comment footer { display: none; } }
Wer das in seinen eigenen Serendipity-Blog übernehmen will müsste manche der Klassen wahrscheinlich anpassen, denn mein Design basiert mit codeschmiede auf älteren Code, den ich selbst nach HTML5 umgewandelt habe. Deswegen gibt es ein paar Unterschiede bei den Klassennamen zu 2k11 und anderen modernen Themes. Aber die Grundideen sind:
Ausgeblendete Seitenleiste und andere Elemente
Wer einen Artikel ausdrucken will kann auf dem Papier mit den Links in der Seitenleiste nichts anfangen, daher konnte die weg. Dazu habe ich den Header, der bei Einzelartikeln nur den Artikeltitel doppelte, den Footer des Blogs, die Artikelunterzeile und das Kommentarformular ausgeblendet.
Links ohne Farbe
Links sind hier im Blog normalerweise farblich markiert. In der Druckversion sind sie stattdessen schwarz, aber unterstrichen, und ihnen folgt das Linkziel als Text.
Serif-Schriftart
Für das richtige Papierdesign. Übernommen vom systemfontstack – es war gar nicht so einfach, passende Systemschriftarten für Serif- statt Sans-Serif-Schriftarten zu finden – aber leicht angepasst, denn Times New Roman war mir zu prominent platziert.
Spaltenansicht
Der Artikel wird wenn Platz ist in Spalten aufgeteilt. Auf dem Bild oben sind mehr Spalten als normal, da die Skalierung auf 60% reduziert war. Normalerweise sind es bei Din-A4 zwei Spalten im Querformat und nur eine, wie am Monitor, im Hochformat. Die Idee habe ich von sitepoint übernommen.
Titel hinzugefügt
Damit der Blogname trotz ausgeblendetem Header wenigstens irgendwo auftaucht wird er als Pseudoelement vor den Artikel gepackt.
Ganz bewusst nicht ausgeblendet sind die Kommentare, denn die könnten ja zum Artikel beitragen bzw das sein, was jemand ausdrucken wollte. Und auch das Videoelement ist absichtlich noch da, denn ohne es würde dieser Abschnitt des Artikel fehlerhaft wirken. Man kann es zwar nicht anklicken, aber sieht so zumindest dass es da war.
Insgesamt ging es also darum die Artikel auf dem Papier lesbarer zu machen, interaktive Elemente möglichst zu entfernen und auch die angezeigten Farben auf ein Minimum zu reduzieren. Damit wenn schon etwas ausgedruckt wird, es möglichst sparsam geschieht und das Ergebnis so lesbar wie möglich ist.
KDE Connect verbindet Telefon und PC, auch ohne KDE
Friday, 30. April 2021
Wer regelmäßig am PC sitzt, aber gleichzeitig zum Beispiel eine Chatapp auf dem Androidtelefon laufen hat, kennt das Szenario: Jemand sendet dir einen Link am Telefon aber du würdest ihn viel lieber mit dem Desktopbrowser öffnen. Oder: Auf dem PC läuft bereits ein Video, aber mit dem Telefon in der Hand wird das gerade störend, doch jetzt müsstest du umgreifen um mit der Maus das Video zu pausieren. Auch nicht selten: Ein auf dem PC gefundener Link sollte per Android-Chatapp verschickt werden, doch wie bekommt man ihn jetzt vom Desktop aufs Telefon?
KDE Connect ist ein Projekt, das genau solche Szenarien löst. Es erstellt eine möglichst nahtlose Integration zwischen Linuxdesktop und Androidtelefon. So können Dateien ausgetauscht werden, der PC kommt im Share-Dialog vor, die Zwischenablage wird synchronisiert, Videos im PC-Browser sind am Telefon kontrollierbar und es gibt noch mehr Funktionen.
Bei void liegt das Programm im Repository. kdeconnect am Desktop besteht aus zwei Bestandteilen: Dem Daemon /usr/lib64/libexec/kdeconnectd, der bei mir mit sudo gestartet werden musste, und die Kontrollprogramme kdeconnect-app bzw kdeconnect-cli. Mit ihnen verbindest du PC und Telefon, wobei auf dem Android die App KDE Connect laufen muss, die ich per F-Droid installiert habe.
Es muss sich bei mir noch zeigen, ob sich das im Alltag bewährt. Aber bisher funktionierte das System gut und ich finde gerade das schnelle Rüberkopieren von Links sehr praktisch.
Reviews im Blog per Plugin mit Schema.org auszeichnen
Thursday, 22. April 2021
Das im letzten Jahr hier vorgestellte Schema.org-Plugin setzt automatisch Markup, um Blogartikel als Blogartikel zu beschreiben. Das ist zwar nett, aber der Nutzen ist beschränkt – so hat Google diese Auszeichnung bisher nicht aufgegriffen.
Was mir aber im pc-kombo-Blog wahrscheinlich einige Besucher beschert hat war das Markup für Reviews. Das ist eigentlich logisch: Was soll es auch viel helfen wenn die Suchmaschine sich sicherer ist, dass die Blogartikel hier Blogartikel sind. Wovon sie handeln und was sie aussagen, das sind die verwertbaren Informationen um den Artikel im richtigen Moment besser dargestellt anzuzeigen.
Ich habe damals mit recht simplem JSON-Markup gearbeitet und das manuell in die Artikel eingebaut. Jetzt habe ich das Schema.org-Plugin erweitert, um das gleiche Markup in Serendipity-Blogs halbautomatisch zu erstellen. Zum Beispiel sieht der vom Plugin generierte JSON-Code in meinem Artikel zum Sharkoon-DAC so aus:
{"@context": "http://schema.org", "@type": "Product", "name": "Sharkoon DAC Pro S V2", "image": , "description": "", "brand": { "@type": "Thing", "name": "Sharkoon" }, "review": { "@type": "Review", "author": { "@type": "Person", "name": "onli" }, "datePublished": "2021-04-02T06:34:00+0000", "reviewRating": { "@type": "Rating", "ratingValue": "4.0" } } }
Der Code ist teilweise automatisch generiert, der Rest muss manuell über die freien Felder des Entrypropertyplugins eingegeben werden.
Dafür erstellt man vier freie Felder in dessen Pluginkonfiguration:
schemaType, schemaName, schemaBrandName, schemaRating
Die ersten drei beschreiben das Thema des Artikels. Hier war schemaType
ein Product
, schemaName
der Name des DAC, und schemaBrandName
der Name des Herstellers. Wäre ein Film das Thema gewesen hätte ich Product
mit Movie
ausgewechselt – Googles Dokumentation beschreibt das als gültigen Wert, andererseits hat der Markuptester bei mir mit vielen der dort angegebenen Werten nichts anfangen können, auch wenn er nicht meckerte.
Das vierte Feld schemaRating
ist schließlich die Bewertung. Da ich keine Skala angeben möchte geht die von 0 bis 5. Eine numerische Bewertung angeben zu müssen ist manchmal blöd, da meine Artikel normalerweise keine finale Bewertung abgeben. Aber für das Snippet wird sie verständlicherweise gebraucht.
Der Schema.org-Reviewcode wird nur ausgegeben, wenn alle vier Felder gefüllt sind. Er ist ein Zusatz zum regulären Blogartikelbeschreibungscode, den das Plugin bisher ausgegeben hat. Der bleibt unverändert erhalten.
Das Plugin ist nicht auf Spartacus, aber kann von seinem Github-Repo heruntergeladen werden. In dessen Readme ist auch die Konfiguration nochmal erklärt.
Die Woche der integrierten Grafik
Wednesday, 14. April 2021
Ich hatte gleich zwei Gründe, mich mit den in Prozessoren integrierten Grafikeinheiten (iGPUs) auseinanderzusetzen: Zuerst die generelle Nichtverfügbarkeit von Grafikkarten, wodurch mein PC-Hardwareempfehler derzeit nur Prozessoren mit integrierter Grafik empfiehlt. Und zweitens, dass meine eigene RX 580 sich verabschiedet hat und auch ich bis zur Preisnormalisierung ohne Grafikkarte auskommen will.
Daher sollte der Meta-Benchmark die integrierten Grafikchips anzeigen und mehr Daten zur Verfügung haben, um sie richtig einzuordnen. Was nicht einfach ist, denn da iGPUs relativ lahm sind wurde über sie nur selten geschrieben. Und noch seltener versucht, sie mit Grafikkarten zu vergleichen. Beides aber braucht mein System um sie richtig platzieren zu können. Ich wühlte mich also diese Woche lange durchs Internet um passende Veröffentlichungen zu finden.
Doch zuerst: Welche integrierten Grafikeinheiten gibt es überhaupt? Bei Prozessoren, die regulär im Handel für Normalkunden verkauft wurden.
iGPUs von Intel und AMD
Intel rüstet seine Prozessoren seit vielen Jahren mit integrierter Grafik aus. Nur die neueren F-Modelle verzichten auf sie und sind dann manchmal etwas günstiger. Soweit ich nachvollziehen konnte pflegte Intel da zwei Serien: Die superschwache Intel (U)HD, die in Desktopprozessoren eingebaut wurde und bis vor kurzem gerade so für den Desktopbetrieb samt Youtube ausreichte, sowie die stärkere Intel Iris, die aber mit einer Ausnahme ausschließlich bei Laptopprozessoren eingebaut wurde. Insbesondere wären da:
Intel UHD 750
Die ganz neue Grafikeinheit der genauso neuen Rocket-Lake-Prozessoren, z.B. eines Core i5-11600K. Das erste mal in Jahren, dass sich bei Intel die Grafikleistung deutlich verbessert hat.
Intel UHD 630
Die vorherige Grafikeinheit wurde von der 10000er-Serie bis zur 8000er-Serie benutzt.
Intel UHD 610
In den billigen Pentium- und Celeron-Prozessoren wurde in der Zeit aber die schwächere UHD 610 eingesetzt.
Intel HD 630
Und davor gab es die HD 630 in den 7000er-Prozessoren, die nur etwas langsamer als die UHD 630 getaktet war.
Intel HD 610
Die HD 630 hatte wieder eine schwächere Variante für Pentium/Celeron, die im äußerst beliebten Pentium G4560 drin war.
Intel Iris Pro 6200
Und das hier war der große Ausreißer. Die Grafikeinheit der Broadwell-Prozessoren, also i5-5675C und i7-5775C, war wesentlich besser als was davor und lange auch als was danach kam.
Intel HD 4600
Und mit der Grafikeinheit der 4000er-Prozessoren beende ich diese Liste.
Es gab dann noch mehr und frühere Varianten, Intel macht das schon eine Weile, aber die müssen ja nicht alle hier stehen.
AMD dagegen hat seine Grafikeinheit nie generell in alle Prozessoren eingebaut. Stattdessen versuchten sie nach dem Kauf von ATI Prozessoren mit stärkerer Grafikeinheit als APUs zu verkaufen, als eine Alternative zu ihren damals schwächelnden regulären Prozessoren. Mittlerweile wurde der Name aufgegeben, aber die regulären Ryzenprozessoren haben immer noch keine integrierte Grafik. Nur die spezielle G-Reihe. Aber im Detail gab und gibt es:
Vega 11 und Vega 8
Die Vega-Architektur gab es auch mit Vega 56 und Vega 64 als echte Grafikkarte, die integrierte Variante steckt in Ryzen 3 2200G/3200G sowie Ryzen 5 2400G/3400G.
Vega 3
Ähnlich wie bei Intel haben die billigeren Prozessoren schlechtere Grafikeinheiten, hier trifft das die Athlon-Reihe, also Athlon 200G/220G/240G und 3000G.
Radeon R7
Das war ein Sammelbegriff für unterschiedlich starke Grafikeinheiten, die von AMD in mehrere APU-Generationen der Bulldozer-Ära gesteckt wurden, vom A8-7650K bis zum A12-9800.
Radeon HD 8670D
Vor der Radeon R7 jedoch waren die Grafikeinheiten klar benannt. Die 8670D war im A10-6790K und wenigen ähnlich starken APUs. Es gab dann mehrere schwächere Varianten wie eine 8570D, und davor eine HD 7660D mit wieder schwächeren Varianten, usw. usf.
Relevant ist heute davon im Grund noch alles, was in benutzbar starken Prozessoren steckt. Denn für den Bürobetrieb zum Beispiel reichen sie alle. Das wären alle genannten Intel-Einheiten, vielleicht mit Ausnahme der älteren Intel/Celeron-Varianten. Bei AMD wird es eigentlich erst ab Vega interessant, die Prozessoren davor sind heute nicht sehr reizvoll.
Doch was taugen die Grafikeinheiten im Vergleich untereinander und im Vergleich mit echten Grafikkarten?
Die Rangfolge
Der Meta-Benchmark funktioniert so: Ich füttere ihn mit Benchmarkergebnissen und er baut aus vielen verschiedenen Benchmarks eine Abfolge, indem er auch die Verbindungen zwischen den Grafikkarten berücksichtigt die nie direkt miteinander verglichen wurden. Um gut zu funktionieren braucht es viele Daten, die auch immer mal wieder zwischen den Generationen vergleichen. Bei den iGPUs ist das noch seltener als bei regulären Grafikkarten. Klar, weil sie weniger interessant sind, aber bestimmt auch weil sie so schwierig im Benchmark zu vergleichen sind. Der Prozessor wechselt ja mit, und je nach Prozessor ist eine gleich benannte integrierte Grafikeinheit unterschiedlich stark. Mein Meta-Benchmarkergebnis kann also nur eine Annäherung an die echte Leistung und Rangfolge sein.
Aber immerhin, eine so umfangreiche Annäherung so vieler GPU- und iGPU-Generationen anhand echter Spieleleistung findet sich sonst nirgends. Aus der Analyse der Benchmarks kam heraus:
Ein paar Erkenntnisse:
- Alle iGPUs sind immer noch schwächer als die bereits enttäuschend schwache GT 1030, und schwächer als eine Uralt-Grafikkarte wie die GTX 750 Ti.
- Mit der UHD 750 hat sich Intel deutlich verbessert - aber auch das gilt nur, wenn man die Iris Pro 6200 vergisst, die nur knapp geschlagen wurde.
- Die GT 710 und 730 sind gute Vergleichskarten, sie markieren mit der 710 das untere Ende der iGPU-Leistung und mit der 730 die Stufe zwischen den besseren Vega-APUs und den anderen Grafikeinheiten.
Ob aber Vega 3 wirklich stärker ist als die Intel Iris Pro 6200 wage ich zu bezweifeln, da fehlt nämlich ein direkter Vergleich, was bei diesen direkten Nachbarn hilfreich wäre. Dass sie aber in etwas gleich stark sind, das geben die Daten mit indirekten Vergleichen wohl her.
Zusatzfrage: Kann man mit den besseren iGPUs eigentlich spielen? Tatsächlich geht das. Mit der Intel Iris Pro 6200 meines 5675C habe ich noch nicht allzuviel ausprobiert, aber schon Stellaris und Age of Empires 2 DE am Laufen gehabt. Beide funktionierten von der Leistung recht gut, AoE2 aber war im Multiplayer nicht stabil genug.
Ich empfehle aber mal die Einzelbenchmarks anzuschauen, besonders die der Intel UHD 750 und die der Vega 8. An ihnen lässt sich gut ablesen, welche Spiele mit welchen FPS laufen würden. Wobei man da auch einen Blick auf die jeweils genutzten Einstellungen werfen sollte.
Ich ziehe daraus, dass die Intel Iris Pro 6200 eine gute Wahl war, und man bei einem Neukauf mit der Intel UHD 750 eines i5-11500 den Grafikkartenwinter ganz gut überstehen könnte. Die AMD-APUs wären noch besser, sind aber derzeit ähnlich rar und überteuert wie Grafikkarten.
Der USB-Switch Aten US224, eine Heimarbeitserleichterung
Tuesday, 6. April 2021
Warum ist der Kopfhöreranschluss meines Gehäuses eigentlich kaputtgegangen? Das tägliche Wechseln zwischen Arbeitslaptop und Heimrechner wird nicht geholfen haben. Neben dem Kopfhörer musste ich eine Weile auch Maus und Tastatur umstecken, was nervig wurde. Dann habe ich mir den USB-Switch US224 von Aten gekauft und kann mir das seitdem sparen.
Die Anschlüsse
Der Switch hat vier Anschlüsse für USB-Geräte. Maus und Tastatur schließe ich da an, gelegentlich das Mikrofon. Eigentlich wäre noch Platz für die USB-Soundarte, aber dafür habe ich den Switch nicht an die beste Stelle meines Schreibtischs geklebt. Vielleicht korrigiere ich das später mal.
Zusätzlich könnte der Switch per USB-Mini-B mit Strom versorgt werden. Das ist optional, meine drei Geräte brauchen es nicht, aber wenn ich zusätzlich eine externe Festplatte anschließen wollte dürfte es nötig werden.
Auf der anderen Seite des Switches sind drei Kabel fest installiert. Zwei sind normale USB-Kabel, sie gehen zu Laptop/PC. Es wäre schöner wenn diese beiden Kabel auswechselbar wären. Das dritte ist ein dünnes Kabel und hat am Ende einen Schalter. Mit ihm (und nicht am Switch selbst, was ich wieder nicht toll finde) wird zwischen den angeschlossenen Rechnern umgeschaltet.
So funktionierts
Per Druck auf den Schalter wird das aktive Gerät umgeschaltet. Also: Ich arbeite am Laptop mit Tastatur und Maus. Dann schalte ich den Laptop aus, schalte den Rechner an und muss nur den Knopf des USB-Switch drücken, damit Maus und Tastatur den Rechner kontrollieren können. Deswegen wurde das automatische Wechseln des Tastaturlayouts bei der Tastaturerkennung wichtig.
Ich habe bewusst nur einen USB-Switch und keinen Switch mit Anschlüssen für den Monitor gekauft. Die sind teurer und bei meinem Monitor unnötig: Denn der Acer CB242Y hat mehrere Eingänge, zwischen denen er zuverlässig automatisch umschaltet. Am HDMI-Eingang steckt der Laptop, am Displayport der PC. Geht im Szenario oben der Laptop aus und der PC an wechselt er einfach rüber. Ich hätte mit einem komplizierteren Switch also nichts gewonnen gehabt. Das wäre etwas anderes, wenn ich Laptop und Rechner parallel laufen haben wollte.
Ich war vor solchen USB-Hubs als Fehlerquelle gewarnt worden, weil dann bei Problemen im Betrieb die USB-Geräte kurz ausgehen. Doch davon bin ich verschont geblieben, der Aten-Switch funktionierte bisher einwandfrei. Einzige Nickligkeit ist die Initialisierung morgens beim Einschalten, wenn ich manchmal zweimal den Schalter drücken muss damit mein Laptop die Tastatur und Maus erkennt. Ansonsten funktioniert der Umschalter perfekt und ist eine echte kleine Erleichterung im Alltag.
Ich habe den Aten US224 für etwa 20€ bei Galaxus gekauft.