Wissen für Jedermann • Dominik's Blog https://dominikkleidt.de Ein IT Blog für alle Mon, 10 Jun 2024 11:38:50 +0000 de hourly 1 https://wordpress.org/?v=6.6.2 Windows Customization für mehr Datenschutz https://dominikkleidt.de/2024/06/10/windows-customization-fuer-mehr-datenschutz/ https://dominikkleidt.de/2024/06/10/windows-customization-fuer-mehr-datenschutz/#respond Mon, 10 Jun 2024 11:38:43 +0000 https://dominikkleidt.de/?p=610 Motivation hinter dem Beitrag Auch wenn ich mir wünschen würde, es wäre anders, verwende ich privat als „Hauptsystem“ eine Windows Maschine.So wie die allermeisten Menschen dies auch tun, zumindest im privaten Bereich.Der Grund ist klar, Windows ist am flexibelsten!Wobei das... Weiterlesen →

The post Windows Customization für mehr Datenschutz first appeared on Dominik's Blog.

]]>
Motivation hinter dem Beitrag

Auch wenn ich mir wünschen würde, es wäre anders, verwende ich privat als „Hauptsystem“ eine Windows Maschine.
So wie die allermeisten Menschen dies auch tun, zumindest im privaten Bereich.
Der Grund ist klar, Windows ist am flexibelsten!
Wobei das ist so nicht ganz korrekt, es ist eher das Windows im Gesamtpaket gleichzeitig mehr abdecken kann als z.B. Linux.
Heute zeige ich dir wie man Windows Customization verwenden kann. Hierfür befassen wir uns hauptsächlich mit dem Debloat.

Jedoch ist Windows voller Tracker und Telemetrie, welche Microsoft viel über uns verrät und seitdem man Microsoft Konten verwenden soll, für „mehr Komfort und Sicherheit“, ist, aus meiner Sicht, die Spionage vorprogrammiert!
Daher möchte ich hier meine persönlichen Vorgänge/Tools vorstellen, mit denen ich mein Windows einrichte um mehr Privatsphäre zu erhalten.

Zielgruppe

An sich ist hier jeder Teil der Zielgruppe, natürlich kommt es auf die persönlichen Präferenzen an.
Jemand der z.B. Xbox Games oder den GamePass besitzt wird ohne die Xbox Dienste nicht auskommen.
Auch jemand mit einem Ryzen der 3D-VCache verwendet, benötigt die Xbox Game Bar.
Daher sind meine Vorschläge/das Vorgehen auf sich selbst anzupassen.

Eckdaten/Bereiche

Bevor wir ins Detail gehen, möchte ich dir eine Übersicht geben welche Themen/Bereiche wir hier beleuchten werden.
Dabei wird darauf eingegangen, wieso die „normalen“ Varianten eher zu deinem Nachteil sind und weshalb diese kleine Änderung mit einer Alternative viel bringen kann.

Neuinstallieren oder im Nachgang anpassen?

Hier gibt es meist diese 2 Lager, dabei kommt es jedoch darauf an, was für dich praktikabler ist.
Bei einer Neuinstallation hast du den Vorteil, dass du aus dem Installationsmedium viel rausnehmen kannst.
Bei Anpassungen im Nachgang wiederum musst du das System nicht neu aufsetzen und sparst somit Zeit.
Wir werden hier beides mal angehen um ein möglichst komplettes Bild zu erhalten.

Aktualität / Word of Reason

Da Microsoft sich immer etwas Neues einfallen lässt, kann es sein, das Tools oder Vorgehen aus diesem „Guide“ nicht mehr aktuell sind.
Gerne kannst du mich in den Kommentaren darauf hinweisen oder mir per Kontakt Formular schreiben.
Dieser Beitrag ist innerhalb von 2024 entstanden!

Ebenfalls möchte ich darauf hinweisen, dass nicht jedes Script/Tool hier verwendet wird, da ich hier auf meine eigene Erfahrung zurückgreife. Bedeutet auch, dass es sein kann, dass ich gewisse Tools nicht kenne oder persönlich eine Abneigung gegen diese habe.

Ebenfalls empfehle ich mindestens die Windows 10/11 Pro Version zu installieren.
Das liegt daran, dass wir hier einige Möglichkeiten erhalten, die bei einer „Home“ Version nicht möglich sind.

Windows „schlank“ neu installieren

Dies ist mit unter die einfachste Methode, wobei es hier „Unterarten“ gibt.
Dabei wird das Betriebssystem entweder bei der Installation oder vorher „Debloatet“ und somit kommt das System automatisch schlanker her.

Wir starten erst mit den Basics wie z.B. „Wo besorge ich mir die Dateien für Windows?“ oder auch „Wie schaffe ich es, Windows von einem USB Stick zu installieren“ und werden später die umfassenderen Maßnahmen beschreiben.

Windows ISO besorgen

Das Sicherste ist tatsächlich vorab die Windows ISO/Image von der Microsoft Seite zu laden.
Anbei der Link von Microsoft hierfür: https://www.microsoft.com/software-download/windows11

Dabei ist es wichtig, dass die Multi-ISO runtergeladen und auf einem Rechner abgelegt wird, da wir an der ISO ja mehrere Modifikationen vornehmen wollen.

Windows Image auf USB Stick Bootbar machen mit kleinen Tweaks

Hierfür bedienen wir uns eines Tools Namens Rufus https://rufus.ie/de/
Rufus ist ein Tool um ISO/Images beim hochfahren deines PC’s bootbar(startbar) zu machen.

Hinzu kommt jedoch, dass Rufus bereits ein paar Tweaks für uns an der ISO selbst vornehmen kann.
Dabei erlaubt Rufus folgende Änderungen:

  • Entfernen der Hardware Anforderungen von 4GB+ RAM, Secure Boot und TPM 2.0
  • Entfernen der Anforderung eines Microsoft Kontos
  • Schaltet die Datensammlung ab (überspringt somit auch die Datenschutz fragen)
  • Schaltet die automatische Bitlocker Verschlüsslung ab

Es gibt noch zwei weitere Kleinigkeiten, die jedoch nicht wichtig für unser „verschlanken“ sind.
Bei Secure Boot handelt es sich um eine Option im BIOS bzw. UEFI, die dazu da ist, die „Echtheit“ von Hardware und Software zu verifizieren. Damit ist gemeint, dass keiner daran Veränderungen vorgenommen hat, was an sich ein praktisches Feature ist.
Jedoch kann sowas wie Secure Boot mit „verschlanken“ bzw. „Debloateten“ Windows Images Probleme machen, daher lassen wir diese Anforderung deaktiviert.

Hiermit haben wir dann, nachdem wir die ISO mit den Anpassungen auf den USB Stick „brennen“ lassen, ein installierbares Windows, das schonmal weniger Daten sammelt und auch weniger „Probleme“ machen sollte.

Anbei mal eine Screenshot „Reihenfolge“ wie das unter Rufus aussieht:

  1. Rufus runterladen und installieren oder die „p“ Version nehmen, diese muss nicht installiert werden!
    Hiernach Starten

2. Wähle/gehe sicher das dein USB-Stick an dieser Stelle ausgewählt ist.
Ist dem nicht so, kannst du in das Feld von Rufus klicken und du solltest deinen USB Stick vorfinden.

3.Drücke den Button „Select“ bzw. in deutsch „Auswahl“ aus und suche in dem neuen Fenster nach der Windows ISO die du runtergeladen hast.
Wenn dein Downloadverzeichnis das Standardverzeichnis ist kannst du an der „Downloads“ Stelle suchen links im File Browser.

4. Den Rest gerne auf Standard lassen und auf „Start“ drücken um deinen USB Stick mit Windows Bootbar zu machen.

5. Die gewünschten Anpassungen durch Rufus vornehmen lassen bzw. diese Auswählen!

Das war es schon.
Schauen wir am Besten in den nächsten Tipp rein, dieser hilft zusätzlich!

Region World Option

Ja, man kann als Region „World“ angeben.
Dadurch sind einige Apps wie z.B. „TikTok“ nicht vorinstalliert. Dies gilt auch für einige andere Apps.
Jedoch sind dies keine systemkritischen Apps, daher kann dies ohne Einschränkungen gemacht werden.
Es kann sein, dass bei der sogenannten OOBE (Out-of-box experience) von Windows ein Error erscheint, dieser sollte sich skippen lassen. Leider passiert das nicht immer.

Das Keyboard Layout kann jedoch gerne auf Deutsch/German gestellt werden, wichtig ist die Region/Time and currency Format.

Windows ISO selbst anpassen

Hier gibt es mehrere Geschmäcker wie das gemacht werden kann.
Ich habe primär bisher zwei Wege genutzt.
Einmal mit dem MSGM Toolkit und einmal MicroWIn von Chris Titus Winutil

Dabei stellt MSGM Toolkit die „umständlichere“ Variante dar, die jedoch dafür auch granular umsetzbar ist.
Jedoch ist dies eher für Fortgeschrittene Benutzer vorgesehen.
Mit dem MicroWin erhalten wir ein Tool, das einige sinnvolle Tweaks automatisch vornimmt und wer hier genauer eintauchen will, dem empfehle ich das Github von Chris Titus

Da dieser „Guide“ sehr umfangreich an sich ist, werde ich hier „nur“ MicroWIn von Chris Titus Winutil behandeln.

Falls Interesse da ist, auch das MSGM Toolkit zu betrachten, gerne Bescheid geben!

MicroWin

Um MicroWin nutzen zu können müssen wir die „oscdimg.exe“ runterladen, das ist eine Datei aus dem Windows Assessment and Deployment Kit (Windows ADK) und ist an sich für Bereitstellungen von Images im großen Stil gedacht, jedoch benötigt MicroWin einige Funktionen der „oscdimg.exe“.

Hier gibt es zwei Optionen:

  1. Windows Assessment and Deployment Kit (Windows ADK) herunterladen und installieren
  2. Den Haken im Winutil „Download oscdimg.exe from CTT Github repo“ setzen

Ich persönlich nutze die erste Option, was daran liegt, dass die zweite Option noch gar nicht solange existiert und frei nach dem Motto: Wenn du Tools vom Hersteller benötigst, dann beziehe diese auch von Ihm.
Anbei der Downloadlink: https://learn.microsoft.com/en-us/windows-hardware/get-started/adk-install

Hier muss lediglich der richtige Installer runtergeladen werden.
Ist dieser ausgewählt und ausgeführt, kann erstmal auf Weiter bestätigt werden, bis die Komponenten Auswahl kommt. Hier benötigen wir „nur“ den Punkt „Deployment Tools“ der Rest kann getrost abgewählt werden.
Anbei ein Screenshot:

Nach erfolgreicher Installation kann das Winutil von Chris Titus Tech (CTT) auch ausgeführt werden.
Der „einfache“ Befehl hierfür in Powershell lautet:

irm https://christitus.com/win | iex

Hierfür wird Powershell mit Adminrechten benötigt!

Sollte es zu Problemen kommen, bitte ich das Github Forum von Chris TItus Tech zu konsultieren, da die Community und Chris eher wissen euch zu helfen, als ich alleine.

Ist das Winutil nun gestartet, navigieren wir auf den Reiter „MicroWin“ und wählen dort „Select ISO“ aus.
Hier müssen wir nun unsere Windows10/11 ISO aufsuchen die wir heruntergeladen haben.

Können wir die ISO einbinden, sehen wir auch direkt im Powershell Fenster ob unsere Installation von oscdimg.exe korrekt war.

Sobald die ISO eingebunden ist, erscheint ein „Choose Windows SKU“ das steht für „Wähle eine Windows Version“ den SKU bedeutet Stock Keeping Unit, also wähle deinen Artikel/Produkt.
Wir zuvor erwähnt empfehle ich Windows Pro, da es hier Features und vereinfachungen gibt, die es einem im Nachgang einfacher machen werden!

Ist die Version ausgewählt, kann an sich alles auf „Default“ bleiben, da somit die meisten unnötigen Funktionen herausgenommen werden.
Ich persönlich nehme auch den Edge raus, muss hier jedoch warnen, dass dies zu Problemen führen kann!
Wenn man bereit ist die Probleme zu recherchieren ist das ok, jedoch könnte es initial problematisch werden, besonders um einen anderen Browser herunterzuladen.

Zur Erklärung was mit Provisioned Packages und Appx Packages gemeint ist:

Provisioned Packages

Provisioned Packages sind „Pakete“ die gewisse Daten für die Bereitstellung von Windows zur Verfügung stellen können. Hierbei kann es sich um folgende Herausgeber handeln:

  • Microsoft
  • Silicon Vendor
  • OEM
  • System Integrator
  • Mobile Operator
  • IT Admin

Hierbei können Bereitstellungs- (engl. Provisioning) „Pakete“ genutzt werden die das Gerät anweisen, einen externen Datenträger einzubinden, die Daten aus dem Internet zu laden uvm.
Diese Dienste werden im privaten Bereich meist nicht benötigt.
Natürlich können diese Dienste für professioneller User auf „Keep“ gestellt werden.

Appx Packages

Dies sind Pakete die von Microsoft vorinstalliert und meist mit dem Windows Store verbunden sind.
Hierbei kann es sich auch um „normale“ Apps handeln, jedoch ist im Kontext von MicroWin sowas gemeint wie z.B:

  • Spotify
  • TikTok
  • (Taschen)Rechner
  • Windows Mail
  • Kontakte
  • Link dein Smartphone
  • uvm.

Diese Pakete werden entfernt, wenn man nicht auf „Keep“ umstellt.
Dies ist auch ratsam, da es hier viel „Junk“ gibt.

Treiber

Ja, das MicroWin unterstützt auch die „Injection“ (zu deutsch das Einfügen) von genaueren Treibern.
Das kann Sinn machen, wenn man häufiger die gleiche Hardware vor sich hat, da man sich hierdurch Arbeit ersparen kann.
Dies wird jedoch nur für Fortgeschrittene empfohlen!
Daher ist das auch nicht Teil des „Guides“, da wir hier eine Basis schaffen wollen und die „Windows Built in“-Treiber für die meisten ausreichen werden.

Bei Interesse gerne melden, dann werden wir auch hierzu einen Beitrag erstellen.

ISO „nur“ noch verwenden

Im Rahmen einer Neuinstallation sind wir bereits fertig mit den Anpassungen.
Jedoch sollte das nun folgende für „Anpassungen“ im Nachgang ebenfalls angesehen werden, da wir hier noch Anpassungen vornehmen können, die vorher nicht möglich sind.

Hierzu muss von dem Stick gebootet werden. Dies kann man einmalig beim Hochfahren mittels F8 ändern.
Falls das bei dir nicht der Fall ist am besten dein Laptop Modell oder Mainboard Modell recherchieren und beim Hersteller nachschauen, da die Hersteller hier ihre eigene Vorkehrungen treffen können.

Debloat im laufenden System

Auch wenn Windows bereits installiert ist, oder man keine Lust hat eine Neuinstallation vorzunehmen, kann man hier schon einiges tun.
Dabei werden wir ebenfalls auf das MicroWIn von Chris Titus Winutil zurückgreifen.
Warum ich dieses Tool so empfehle, werde ich später genauer erklären.
Jedoch sei vorab gesagt, dass es hier um die Einfachheit und Bequemlichkeit geht, dass man diese Anpassungen auch manuell machen kann.
Allerdings muss die eigene Sammlung an Powershell Skripten und Registry Keys dann aktuell bleiben, das Tool nimmt uns dies ab.

Jedoch werde ich nachher ein anderes Tool zumindestens erwähnen.
Dieses andere Tool „baut“ einem die Powershell Skripte.

Debloat mit dem Winutil

Erneut dürfen wir das Winutil mit folgender Zeile in einer als Admin ausgeführten Powershell ausführen:

irm https://christitus.com/win | iex

Ist das Util gestartet, auf den Reiter „Tweaks“ navigieren.
Hier sehen wir nun mögliche Anpassungen, die wir vornehmen können.
Ich spreche hier meine Empfehlung im Screenshot aus und erkläre zu den Punkten jeweils etwas.
Dabei geht es mir darum, möglich viel zu erreichen ohne dabei die Bequemlichkeit zu beeinträchtigen.

Create Restore Point

Der Restore Point ist an sich keine Anpassung die für einen Debloat erforderlich sind, jedoch ist es ratsam diesen Restore Point zu setzen.
Restore Points, sofern vorhanden, sind sowas wie Momentaufnahmen von Windows auf deren Zustand man „zurück springen“ kann.
Es ist eine Art „Backup“, wobei ich betonen muss, das Restore Points KEINE BACKUPS im eigentlichen Sinne sind!
Backup kommt dem Ganzen nur als Erklärung am nächsten.

Run OO Shutup

Hierbei wird das Tool vom Hersteller O&O Software GmbH gestartet.
Dieses Tool wurde ursprünglich für Windows 10 entwickelt, funktioniert jedoch auch bei Windows 11 und wurde darauf auch angepasst.

Hier werden „nur“ Recommended also empfohlene Anpassungen vorgenommen.
Diese sind äußerst zahlreich, anbei ein paar Highlights die abgeschaltet werden hierdurch:

  • Einsendung von Benutzeraktivitäts Daten an Microsoft ab
  • Zugriff von Apps auf diagnostische Daten ab
  • Zugriff von Apps auf Benutzer Account Information ab
  • Telemetrie ab
  • Werbe-ID ab
  • Cortanas Rechte auf Daten zuzugreifen

Es gibt noch einige mehr, jedoch hat sich OO Shutup als ein Bestandteil etabliert um Windows Datenschutzfreundlicher zu machen.

Disable Telemetry

Dieser Punkt ist klar doppelt drin, WENN man das „Run OO Shutup“ verwendet.
Jedoch kann es ja sein, das man das bewusst nicht möchte, daher ist der Punkt drin:
Mit Telemetry bzw. Telemetrie Daten sind div. Daten gemeint.
Dabei geht es auch um „User Experience“ als Benutzererfahrungen, Nutzer verhalten, Errors Reports uvm.
Leider ist die Liste sehr lang und die Telemetrie lässt sich auch nicht vollständig abschalten, jedenfalls nicht, solange man die Windows Updates einspielen will, was aus der Security Sicht ein Muss ist.
Daher werden mit dieser Option die Daten soweit minimiert wie es mit der Windows Version möglich ist.

ACHTUNG an die Admins:
Gewisse Telemetrie Daten werden von Anwendungen im professioenllen Kontext benötigt um Funktionen bereit zustellen. Hier also bitte prüfen!

Disable Wifi-Sense

Auch in „Run OO Shutup“ enthalten, jedoch einzeln anwählbar.
Frei nach dem Motto doppelt hält besser.
Spaß bei Seite, diese Option stellt die genannte Funktion ab.
Wifi-Sense scannt deine Umgebung nach Wifi-Netzwerken ab, die du bereits eingespeichert hast und nutzt diese um ohne dein zutun „nach Hause“ zu telefonieren, hierzu wird ebenfalls die Geolokation (Geolocation) mit verwendet.

Delete Temporary Files & Run Disk Cleanup

Ja, hier sind zwei Punkte in einem, weil diese ähnlich fungieren.
Dabei werden beim ersten Temporäre Daten gelöscht, die meist als ein Cache verwendet werden.
Diese Daten zu bereinigen kann je nachdem viel Sinn machen, da Windows von alleine eher träge mit dem Löschen ist.

Run Disk Cleanup ist die Windows integrierte Funktion sowohl temporäre Daten als auch weitere Daten zu löschen.
Dabei geht es jedoch eher um sowas wie den Papierkorb leeren, alte nicht mehr benötigte Windows Update Dateien bereinigen, Miniaturansicht Cache löschen und weitere Daten die von Windows im Hintergrund verwendet werden.

Also eher ein „Wenn wir schon dabei sind“

Disable Location Tracking

Nun sehr „einfach“, denn hier wird das Aufzeichnen (tracken) deiner Position (location) abgeschaltet.
Da diese sonst an Microsoft gesendet wird.

Disable Hibernation

Dieses Feature ist meist bei Laptops im Einsatz und macht auf Desktops wenig Sinn.
Jedoch würde ich dieses Feature auch auf Laptops abschalten, da es in meiner Erfahrung hiermit Probleme geben kann, wenn die Energie Pläne im UEFI nicht richtig hinterlegt sind.
Hibernation ist der „Schlafmodus“ mit dem man das Gerät in eine Art „Hocheffizienten Energiesparmodus“ versetzt wird und die nötigsten Dateien zum „aufwachen“ in dem Arbeitsspeicher ausgelagert werden.
Jedoch kann es hierdurch passieren, dass man sein Gerät lange nicht neu startet und das bei Windows doch ratsam ist, dies regemäßig zutun.

Diese Erklärung ist absichtlich nicht zu technische gehalten, um das Verständnis für alle zu gewährleisten.

Set Services to Manual

Hierbei werden Dienste in Windows auf Manuell umgestellt, bedeutet, diese Dienste starten nicht automatisch mit Windows.
Dabei geht es darum, dass viele Dienste automatisch starten, obwohl diese nicht benötigt werden.
Mit dem setzen auf manuell, werden die se bei Bedarf gestartet, wodurch die Hintergrund Dienste reduziert werden.

Run the Tweaks

Mit den Button „Run Tweaks“ werden nun die Anpassungen vorgenommen, was einige Zeit dauern kann.
Hierdurch kann es auch passieren, dass sich einige Funktionen anders verhalten als bisher bekannt also bitte beobachten.

Privacy.Sexy

Ja, das „andere“ Tool für alle diejenigen, die sich eine andere Ressource wünschen, denen kann ich privacy.sexy empfehlen.
Hier kann man sich granular Powershell Skripte bauen lassen und sieht direkt auch den Code, ohne auf Github nachzuschlagen, was passieren wird.

Ebenfalls bietet privacy.sexy eine „offline“ Version an, welche sich auf deinem Gerät installieren lässt, wodurch du auch die Skripte ohne Internet bauen und ausführen kannst.

Fazit / Feedback

Wie du siehst ist die Anpassung von Windows für mehr Datenschutz gar nicht so schwer.
Natürlich könnte man nun noch tiefer darauf eingehen, jedoch ist dies aus meiner Sicht ein guter Einstieg.
Mit diesen kleinen Anpassungen minimierst du bereits die Daten, die durch Windows weiter gegeben werden, massiv!

Du bist hiermit jedoch nicht anonym!
Lediglich deine Ressourcen werden geschont und Microsoft weiß nicht soviel über dich, wie es diese gerne wollen würden.

Irgendwo schon schade, dass das überhaupt nötig ist…
Jedoch schön, dass es geht!

Was interessiert dich besonders?
Hast du Ideen für weitere Beiträge oder möchtest selber etwas verfassen?
Oder einfach dein Feedback geben?
Dann ab in die Kommentare, ich freue mich auf dich!

The post Windows Customization für mehr Datenschutz first appeared on Dominik's Blog.

]]>
https://dominikkleidt.de/2024/06/10/windows-customization-fuer-mehr-datenschutz/feed/ 0
Einfache Zertifikatserstellung mit Easy-RSA: Ein Guide mit eigener Certificate Authority (CA) https://dominikkleidt.de/2024/03/13/einfache-zertifikatserstellung-mit-easy-rsa-ein-guide-mit-eigener-certificate-authority-ca/ https://dominikkleidt.de/2024/03/13/einfache-zertifikatserstellung-mit-easy-rsa-ein-guide-mit-eigener-certificate-authority-ca/#respond Wed, 13 Mar 2024 11:43:00 +0000 https://dominikkleidt.de/?p=533 Grund für den Beitrag Zertifikate sind wichtig und bei mir auf der Arbeit gab es zum Einarbeiten die Aufgabe eine eigene Certificate Authority (CA) aufzustellen und mit dieser gültige Zertifikate zu erstellen.Da das Thema eher ungerne behandelt wird, möchte ich... Weiterlesen →

The post Einfache Zertifikatserstellung mit Easy-RSA: Ein Guide mit eigener Certificate Authority (CA) first appeared on Dominik's Blog.

]]>
Grund für den Beitrag

Zertifikate sind wichtig und bei mir auf der Arbeit gab es zum Einarbeiten die Aufgabe eine eigene Certificate Authority (CA) aufzustellen und mit dieser gültige Zertifikate zu erstellen.
Da das Thema eher ungerne behandelt wird, möchte ich zeigen wie einfach es sein kann: mit easy-rsa.

Ebenfalls soll dies eine Art Dokumentation zum Nachlesen für alle werden.

Der Grund für Easy-RSA statt OpenSSL

Falls dir OpenSSL nichts sagt, es handelt sich um eine Anwendung mit der man Zertifikate signieren kann.
Besser gesagt kann man auch mit dem Packet OpenSSL seine eigene Certificate authority (CA) aufbauen.
Für mich funktioniert OpenSSL bisher nur um selbst signierte Zertifikate erstellen, daher habe ich nach Alternativen gesucht.
Hier die Anmerkung: Falls jemand mir zeigen kann, wie es am praktischen Beispiel funktioniert, gerne Bescheid geben.

Jedenfalls ist mir bei der Recherche Easy-RSA aufgefallen.
Es sah für mich persönlich etwas einfacher aus, als OpenSSL und daher habe ich dem einen Versuch gegeben.
Und siehe da: es funktioniert. Das habe ich bereits vor einigen Jahren festgestellt, jedoch habe ich selten den Bedarf nach einer eigenen CA, weshalb ich dies bisher nicht niedergeschrieben habe.
Dies ändert sich mit diesem Beitrag.
Kleine Anmerkung statt Certificate authority (CA) kann auch Public Key Infrastructure (PKI) als Begriff verwendet werden.
Da in unserem Fall beides dasselbe ist.

Kleine Auffrischung zu Certificate Authority (CA) und RSA

RSA (Rivest–Shamir–Adleman) ist ein Verfahren der Asynchronen Verschlüsslung.
Hier wird pro Seite ein public und private Key erstellt.
Der private Key ist, wie der Name es schon verrät, privat und ist nur dir selbst bekannt.
Mit diesem kannst du eine digitale Signatur erstellen, welchen durch deinen public Key verifiziert werden kann.

Und Zertifikate bauen genau darauf auf.
Denn das Zertifikat, dass du einsehen kannst, enthält den public Key, welchen du an die ausstellenden Certificate authority senden kannst, mit der Frage ob das Certificate wirklich von ihr ausgestellt wurde.
Die CA kann dann für sich mit ihrem private Key prüfen ob dieses Zertifikat tatsächlich von Ihr signiert wurde, wenn nein, wird das Zertifikat als falsch/nicht sicher eingestuft.

Einrichtung von Easy-RSA

Du benötigst eine Linux Maschine, dabei werde ich auf eine Debian 12 Maschine zurückgreifen, es sollte jedoch grundsätzlich auch mit anderen Distributionen funktionieren.
Ebenfalls solltest du auch Sicherheitsgründen mit einem non-root User arbeiten der sudo-Rechte besitzt.

Installation von Easy-RSA

Es wird mittels SSH oder direkt auf dem Server in der Konsole als non-root angemeldet.
Um sicher zu gehen, dass der Zugriff besteht und die Paketquellen up-to-date sind, verwenden wir den Command:

sudo apt update && upgrade -y

Durch das -y bestätigen wir direkt die Nachfrage ob wir die Paketquellen und installierten Paketen aktualisieren/ersetzen wollen.

Wenn dies erfolgreich verlaufen ist, geht es bereits an die Installation der Software.
Hierfür benötigen wir das easy-rsa Paket, welches wir mit diesem Command laden können:

sudo apt install easy-rsa -y

Auch hier ist -y, dazu gedacht uns eine Abfrage zu ersparen, da wir bewusst easy-rsa installieren wollen.
Solltest du easy-rsa auf eine Maschine installieren die bereits einige Pakete verwendet, prüfe die Abhängikeiten und ob diese miteiandner kolledieren.

Die Software ist nun installiert, jedoch haben wir davon noch keine PKI.
Wir müssen also noch einige Arbeiten erledigen.

Struktur unser Certificate Authority (CA) / Public key infrastructure (PKI)

Wir legen einen Ordner an namens easy-rsa, welchen wir mit einem symbolischen Link versehen werden.
Hierdurch können wir auf die PKI im root Verzeichnis zugreifen ohne root zu sein.
Dennoch gibt es hierdurch Einschränkungen, die jedoch für die Sicherheit der Certificate authority gewollt sind.
Die Commands hierfür lauten:

mkdir ~/easy-rsa
ln -s /usr/share/easy-rsa/* ~/easy-rsa/

Nun könnte jedoch in der Theorie erstmal jeder User auf diesen Link zugreifen, hierzu müssen wir die Berechtigungen ändern.
Diese werden auf Owner Only gesetzt.
Hierzu müssen wir chmod verwenden, tausche User gegen deinen User aus:

chmod 700 /home/User/easy-rsa

Ist dies geschehen, kann in das ~/easy-rsa Verzeichnis mittels des Commands gewechselt werden:

cd ~/easy-rsa

Certificate Authority (CA) / Public key infrastructure PKI initialisieren

Nun kann die PKI „errichtet“ bzw. initialisiert werden.
Hier starten wir das easy-rsa Setup mit dem Parameter init-pki:

./easyrsa init-pki

Ist bis hierhin alles richtig verlaufen, so erhalten wir eine Meldung die uns dies bestätigt mit dem Hinweis was als nächstes zutun ist:

Diese Meldung besagt bei „Notice“, dass wir eine vars Datei anlegen müssen, in der wir die Daten unserer Certificate authority (CA) hinterlegen sollen.
Hierzu kann mit Texteditor nach Wahl gearbeitet werden.
In diesem Beispiel wird „nano“ verwendet.
Hierzu im easy-rsa Verzeichnis lediglich den Command deines Texteditors eingeben mit dem Zusatz des Dateinamens also vars.

nano vars

In der nun geöffneten Datei müssen einige Variablen gesetzt werden.
Dabei beschränken wir uns auf die nötigsten Angaben.
Diese lauten:

set_var EASYRSA_REQ_COUNTRY „Land in der deine Instanz von Easy-RSA betrieben wird“
set_var EASYRSA_REQ_PROVINCE „Die Provinz bzw. das Bundesland in dem diese Betrieben werden“ set_var EASYRSA_REQ_CITY „Die Stadt in der dies Betrieben wird“
set_var EASYRSA_REQ_ORG „Name der Organisation“ set_var EASYRSA_REQ_EMAIL „Mailadresse“ set_var EASYRSA_REQ_OU „Organizationseinheit“ set_var EASYRSA_DIGEST „Hash Methode“

Dabei musst du die Eingaben zwischen den Anführungszeichen auf dich selbst anpassen!
Hier ein Beispiel wie dies aussehen kann:

set_var EASYRSA_REQ_COUNTRY „DE“
set_var EASYRSA_REQ_PROVINCE „Niedersachsen“
set_var EASYRSA_REQ_CITY „Göttingen“
set_var EASYRSA_REQ_ORG „Der Gerät“
set_var EASYRSA_REQ_EMAIL „admin@deineDomain.tld“
set_var EASYRSA_REQ_OU „Marketing“
set_var EASYRSA_DIGEST „sha256“

Wichtig das ist nur ein Beispiel!
In nano kann mit STRG + O und anschließend Enter die Datei gespeichert werden.
Mit STRG + X und anschließend Enter wird die Datei verlassen.

Nun muss die vars Datei noch in das richtige Verzeichnis.
Dieses lautet, ausgehend vom easy-rsa Verzeichgnis /pki.

sudo mv vars /pki

Ist dies ebenfalls erfolgreich verlaufen so kann nun im easy-rsa Verzeichnis die Public Key Infrastructure fertig gestellt werden.
Dies erfolgt mit diesem Command:

./easyrsa build-ca

Nun erscheinen einige Prompts wie „Enter New CA Key Passphrase“ & „Enter PEM pass phrase“ diese sind für die Public Key Infrastructure (PKI) wichtig, da hierdurch unteranderem der private Key erzeugt bzw. abgesichert werden!
Daher sind diese Kennwörter SICHER zu wählen und möglichst SICHER zu verfahren!

Hiernach wird nach dem „Common Name“ gefragt, anders gesagt der FQDN (Fully Qualified Domain Name) deiner Certificate Authority (CA).
Ist dies abgeschlossen liegt dein CA Certifcate in folgenden Pfad bereit:

 /home/deinUser/easy-rsa/pki/ca.crt 

Zertifikate signieren

Um ein Zertifakte zu signieren, muss ein Request File erzeugt werden. Die gängiste Fomat ist CSR (Certificate Signing Request) dieses kann in eine Reqeust Datei umbenannt werden.
Hierzu die CSR Datei am ende in „.req“ umbennen.
Also wird aus:
„deineSignRequest.csr“ –> „deinSignRequest.req“

Ist dies geschehen kann die „.req“ Datei in das „/req“ Verzeichnis von easy-rsa abgelegt werden.
Hierzu diese also in folgende pfad ablegen:
easy-rsa/pki/req

Ist dies gescehen kann im easy-rsa Verzeichnis folgender Command abgegeben werden um das Zertifikat zu signieren.

./easyrsa sign-req server „deinreqfile ohne .req“

Dabei ist es wichtig das du beim ausführen des Commandes „.req“ weglässt, da das Kommando eine .req Datei erwartet.
Sonst würde daraus eine „.req.req“ werden, was in einen Fehler führt.
Ist alles erfolgreich wird dies bestätigt und im pfad „/issued“ befindet sich das nun signierte Zertifikat das du für deine Server verwenden kannst.

Nett to know:
Das „server“ in „./easyrsa sign-req server“ sagt aus welche Art von Zertifikat vergeben soll.
In diesem Fall wird ein Zertifikat für Server Authentifizierung ausgestellt.

Feedback

So kann man unteranderem Zertifikate in der eigenen Umgebung erzeugen mittels easy-rsa.
Falls dir dieser beitrag geholfen hat oder du Verbesserungsvorschläge hast, lass es mich gerne wissen!
Auch ein „Gastbeitrag“ wenn du es anders machst würde mich interesiseren.

The post Einfache Zertifikatserstellung mit Easy-RSA: Ein Guide mit eigener Certificate Authority (CA) first appeared on Dominik's Blog.

]]>
https://dominikkleidt.de/2024/03/13/einfache-zertifikatserstellung-mit-easy-rsa-ein-guide-mit-eigener-certificate-authority-ca/feed/ 0
Alles, was du über Webseiten-Zertifikate und Online-Sicherheit wissen musst https://dominikkleidt.de/2024/03/06/alles-was-du-ueber-webseiten-zertifikate-und-online-sicherheit-wissen-musst/ https://dominikkleidt.de/2024/03/06/alles-was-du-ueber-webseiten-zertifikate-und-online-sicherheit-wissen-musst/#respond Wed, 06 Mar 2024 11:37:00 +0000 https://dominikkleidt.de/?p=528 Grund des Beitrages Sie sind überall, Webseiten-Zertifikate. Dabei reden wir jedoch nicht von Zertifizierungen, sondern den Zertifikaten die dafür verantwortlich sind, dass in deinem Browser ein „https://“ möglich ist. Dabei sprechen wir darüber warum es diese Zertifikate gibt, wie diese... Weiterlesen →

The post Alles, was du über Webseiten-Zertifikate und Online-Sicherheit wissen musst first appeared on Dominik's Blog.

]]>
Grund des Beitrages

Sie sind überall, Webseiten-Zertifikate. Dabei reden wir jedoch nicht von Zertifizierungen, sondern den Zertifikaten die dafür verantwortlich sind, dass in deinem Browser ein „https://“ möglich ist.

Dabei sprechen wir darüber warum es diese Zertifikate gibt, wie diese funktionieren und was man dafür braucht.
Doch Zertifikate sind nicht nur für das Internet wichtig, sondern können dir und deinem Home-Lab eine Stütze sein.

Denn: Zertifikate bringen Sicherheitsgewinne mit sich.

Der Grund für Zertifikate

Der Grund für diese Zertifikate (Certificates) ist, um mehr Sicherheit für alle zu gewährleisten. Das gilt sowohl für die eigenen internen Netzwerke, als auch oder sogar besonders für das Internet.

Denn woher weißt du, ob die Webseite die du da besuchst auch wirklich die Richtige ist?
Genau, du weißt es nicht, da sich jeder als jeder ausgeben könnte.

Hier kommen Zertifikate ins Spiel, welche die Identität eines Dienstes oder Webseite bestätigt.
Es geht also bei Certificates darum eine Möglichkeit zu schaffen, dass man verifizieren kann, damit z.B. die Webseite, die wie deine Bank aussieht, auch wirklich deine Bank ist.

Ebenfalls sind Zertifikate für Webdienste (Internetseiten) erforderlich, damit du eine verschlüsselte Verbindung zu diesen Webseiten aufbauen kannst.

So funktionieren Zertifikate

Das ganze Thema mit Certificates funktioniert vereinfacht gesagt wie folgt:
Jemand betreibt einen Dienst wie z.B. eine Webseite und möchte nun bestätigten lassen, dass der Dienst unter „deinerDomain.de“ erreichbar und vertrauenswürdig ist.

Hierzu muss der Betreiber des Dienstes ein Zertifikat erwerben, hierzu später mehr, welches von einem Dritten vergeben wird.
Dieser Dritte wiederum vergibt das Certificate nur, wenn der Nachweis erbracht wurde, dass einem dieser Dienst gehört.

Hierzu können verschiedene Methoden zum Einsatz kommen.
Doch viel wichtiger, DEINE Geräte vertrauen allen diesen Dritten.
Denn diese nennt man „Certificate authorities“ kurz CA.
Und hier gibt es noch sogenannte „Root Certificate authorities“, welche die „Stammstruktur“ bieten.

Diese Authorities werden nicht nur regelmäßig geprüft (auditiert), sondern haben auch einige Auflagen, die diese erfüllen müssen.
Der Grund ist, dass wenn ein dieser CA’s komprimentiert aká gehackt wird, entsteht ein massiver Schaden für alle.
Denn das Prinzip des Vertrauens wäre dadurch aufgebrochen.


Beispiel diese Webseite

Ein Beispiel hier ist meine eigene Webseite.
Wenn du dir das Zertifikat ansehen willst musst du lediglich auf das Schloss-Icon neben dem „https://“ klicken und dann erneut auf das Schloss-Icon drauf klicken. Dann erhältst du die Option das Zertifikat dir anzusehen. Anbei ein Screenshot wie dieser Weg aussehen kann:

Je nach Browser kann die Ansicht variieren, daher werde ich noch eine vereinfachte Ansicht beifügen:

Du siehst im Zertifizierungspfad, dass meine Webseite: dominikkleidt.de ganz unten ist.
Das liegt daran, dass ich die Echtheit der Seite verifizieren musste.
Hierzu habe ich mich der kostenlosen CA Let’s Encrypt bedient, welche Zweistufig aufgebaut ist.
Du siehst, dass über meinem Certificate ein R3 steht, das ist die R3 Certificate authority von Let’s Encrypt.
Diese nimmt meine Anfrage an und signiert mir meine Anfrage, sofern ich denn die Voraussetzungen erfülle.

Doch an sich vertrauen wir der R3 gar nicht, wir vertrauen der Certificate authority über der R3, nähmlich der ISRG Root X1, welche ebenfalls von Let’s Encrypt ist.
Bedeutet, wir vertrauen der ISRG Root X1, welche die R3 bereits als vertrauenswürdig eingestuft hat.
Das kann man sich vorstellen wie: du kennst die Person nicht, doch dein Freund kennt diese Person und „bürgt“ für diese.

Diese Darstellung ist natürlich vereinfacht betrachtet!

Du kannst Zertifikate selbst erzeugen

Ja, du kannst selbst Zertifikate erzeugen. Dabei kommt es darauf an, für welchen Verwendungszweck du diese verwenden möchtest.

Du kannst zum einen sogenannte „selbst signierte“ (engl- self-signed) Zertifikate erstellen, das kann für Testszenarien sehr bequem sein und erfordert wenig Aufwand.
Der Nachteil ist natürlich, dass du selbst eine Art Ausweis ausgestellt hast, ohne das z.B. das Bürgeramt die Echtheit bestätigt hat.
Bedeutet, du musst auf jedem Gerät dieses Zertifikat manuell auf „vertrauenswürdig“ (engl. trusted) setzen.
Wie gesagt in eigenen Umgebungen und vor allem zum testen reicht das aus!

Ebenfalls für den internen Einsatz kannst du eine eigene Certificate authority (CA) aufbauen.
Hierzu musst du einen Server betreiben (kann auch mini PC sein 😉 ), der die nötigen Tools und Rollen hat, um solche Zertifikate zu erstellen bzw. zu signieren.
Der Vorteil ist, dass du nur einem Zertifikat trauen musst, nämlich dem deiner eigenen CA.
Jedoch kann dies beim Einsatz mit extern zu Problemen führen, da nicht jeder eine „unbekannte externe“ Certificate authority auf vertrauenswürdig stellen möchte.
Das kann beim Thema Mail Verschlüsslung schonmal ärgerlich sein.

Nicht direkt selbst erzeugt jedoch kostenlos und für jeden mit eigener Domain nutzbar ist Let’s Encrypt.
Hier werden einem sogar einige Tools wie der certbot an die Hand gegeben um den Prozess so einfach und angenehm wie möglich zu machen.
Und das Beste, man kann seine Zertifikate automatisch verlängern lassen.

The post Alles, was du über Webseiten-Zertifikate und Online-Sicherheit wissen musst first appeared on Dominik's Blog.

]]>
https://dominikkleidt.de/2024/03/06/alles-was-du-ueber-webseiten-zertifikate-und-online-sicherheit-wissen-musst/feed/ 0
Für mehr Privatsphäre: alternative Frontends im Fokus https://dominikkleidt.de/2024/01/31/fuer-mehr-privatsphaere-alternative-frontends-im-fokus/ https://dominikkleidt.de/2024/01/31/fuer-mehr-privatsphaere-alternative-frontends-im-fokus/#respond Wed, 31 Jan 2024 11:22:00 +0000 https://dominikkleidt.de/?p=425 Ziel des Beitrages Ziel ist es, zu erklären warum alternative Frontends wichtig sind, wie diese funktionieren können und was überhaupt ein Frontend ist.Dabei ist wichtig zu ergänzen, dass dies „nur“ ein Einstieg in das Thema ist, und es noch sehr... Weiterlesen →

The post Für mehr Privatsphäre: alternative Frontends im Fokus first appeared on Dominik's Blog.

]]>
Ziel des Beitrages

Ziel ist es, zu erklären warum alternative Frontends wichtig sind, wie diese funktionieren können und was überhaupt ein Frontend ist.
Dabei ist wichtig zu ergänzen, dass dies „nur“ ein Einstieg in das Thema ist, und es noch sehr viel mehr zu Frontends zu erzählen gibt, als hier beschrieben.

Eckdaten/Themenübersicht

  • Der Anfang (Basis)
  • Internet Browser
  • Suchmaschinen
  • Alternative Frontends für deine Lieblingsplattformen ←Hier befinden wir uns in diesem Beitrag
  • Android Betriebssysteme
  • Linux Betriebssysteme
  • Windows Einstellungen für mehr Privatsphäre
  • Aussicht auf weitere Themen

Deshalb sind Alternative Frontends wichtig

Ein alternatives Frontend bietet dir die Möglichkeit eine Webseite/Dienst im Internet über einen anderen Weg aufzusuchen.
Man kann hierbei von einer „Abkürzung“ oder auch „Schleichweg“ sprechen, da wir am Ende am gleichen Ziel ankommen.
Somit sind Frontends tatsächlich mit „Wegen“ am Besten zu vergleichen.
Man kennt es, der „direkte“ Weg mag als Erstes einfallen doch die alternativen Wege werden nicht so oft befahren/besucht und sind somit nicht so befüllt wie die anderen.
Das Ergebnis: Eine Andere und im besten Fall bessere Erfahrung.

Frontends im Internet ermöglichen dir deine Lieblingsdienste zu nutzen und dabei eine bessere Erfahrung zu haben.

Das kann in Form einer angenehmeren Oberfläche sein.
Doch nicht nur das grafische ist hier möglicherweise ausschlaggebend, sondern auch die Funktionen!
Nehmen wir an, wir möchten YouTube nutzen, ohne dass wir dem Tracking von Google ausgesetzt sind oder wir möchten Videos offline schauen können ohne einen Onlinezwang dabei zu haben.
Dann kann dies mit einem alternativen Frontend erzielt werden.
Natürlich sind das Kann-Eigenschaften, doch bei weniger Tracking und somit mehr Privatsphäre (engl. Privacy) werde ich persönlich hellhörig, besonders, wenn der Inhalt der Gleiche bleibt.

Wichtig: Ein Frontend kann zu mehr Privacy (dt. Privatspähre) beitragen, macht einen jedoch nicht unsichtbar!

So funktioniert das Frontend

Um kurz zu halten, das Frontend ist der Teil, den der Benutzer sieht und bedienen kann.
Das gilt also für jeden Webseiten Besuch den wir tätigen, denn wir sind alle für bestimmte Dienste ein Benutzer.
Wenn es ein Frontend gibt, ist das Backend nicht weit und dieses wird in einem eigenen Beitrag erklärt.
Zusammengefasst nutzt das Frontend die Daten vom Backend und veranschaulicht diese in einer „schönen“ Form.

Das bedeutet, das Frontend ist per se nicht an das Backenend gebunden, denn wie das Frontend an die Daten kommt ist variabel.
Es kann sein das Frontend und Backend auf Anwendungsebene zusammen hängen, oder das sie über eine Programmierschnittstelle (API / Application Programming Interface) angesteuert werden.
Durch diese ist theorhetisch jedem möglich ein „eigenes“ Frontend zu schreiben und zu nutzen.

Das bedeutet natürlich auch, dass man bei alternativen Frontends, demjenigen vertrauen muss, der es erstellt bzw. geschrieben hat.
Nicht jedes, jedoch einige Frontends sind daher, wegen diesem Vertrauen Open-Source.
Denn über das Frontend werden die Daten an das Backend weitergegeben und man kann somit mit den Eingaben auch einiges anstellen.

So kannst du alternative Frontends nutzen

Wie bereits erwähnt bieten Frontends, also einige Möglichkeiten das Internet anders zu nutzen und dabei Vorteile für sich raus zuholen.
Doch ist es kompliziert ein alternatives Frontend zu nutzen?
Die richtige Antwort ist „It depends“
Allerdings lautet die vereinfachte Antwort: Nein 🙂

Alternative Frontends kommen in verschiedenen Formen, also, wie diese genutzt werden können.
Es gibt einige, die kann man selbst betreiben/hosten, andere sind „nur“ eine Webseite die man aufzurufen braucht und wieder andere sind eine Anwendung/App die man sich einfach installieren kann.
Bei der Anwendung und App haben wir im übrigen das beste Beispiel für Backend und Frontend.
Die App selbst kann z.B. YouTube nutzen, doch wir haben nicht gesamt YouTube auf unserem Handy drauf.


Mögliche alternative Frontends für die bekanntesten Plattformen

Anbei werde ich mal einige Plattformen nennen und hierzu alternative Frontends verlinken, damit du diese auch mal für dich testen kannst.
Dabei sei zu erwähnen, dass Apple Geräte außen vor gelassen werden, da ich diese nicht verwende und zum Thema Privacy Apple genauso wie Microsoft die falschen Unternehmen sind.

Einen „Privacy“ Guide zu Apple und Microsoft Betriebssystemen wird es jedoch in Zukunft geben!

YouTube

Ja für YouTube gibt es einige alternaitve Frontends und das auch für nahezu jede Plattform.

Invidious

Dieses Frontend ist nicht nur mit eines der Bekanntesten, sondern für viele andere Projekte entweder die Basis oder das Fallback.
Das liegt daran, dass Invidious nicht die YouTube API nutzt, da diese es verbietet sowas wie Werbung und Tracking aktiv raus zu filtern.

Stattdessen verwendet Invidious „Scraping“ für YouTube.
Der Unterschied zu einer API ist das beim Scraping entweder manuell oder durch einen eigen Algorithmus Webseiten durchsucht werden können und die relevanten Informationen extrahiert werden.
Genau dies macht dieses Frontend nur eben auf YouTube beschränkt, dabei ist wichtig zu wissen, dass Scraping ein „normaler“ Prozess ist, den Suchmaschinen auch selber verwenden um eine Indexierung vorzunehmen.

Invidious lässt sich durch seine eigene API auch in andere/eigene Projekte integrieren.
Hinzu kommt das man entweder die öffentlichen Instanzen verwenden kann oder eine eigene Instanz für sich aufbauen kann.
Dieses Frontend ist „Plattformunabhängig“ da es mit einem Webbrowser aufgerufen werden kann!

Anbei der Link zur Webseite und dem GitHub Repo.
https://invidious.io
https://github.com/iv-org/invidious

Piped

Hier handelt es sich ebenfalls um ein eigenes Projekt, allerdings möchte Piped die DInge anders machen als z.B. Invidious oder NewPipe.
Piped will die „Schwächen“ ausbessern und dabei eine sehr komfortable Option sein um mit mehr Privatsphäre gegenüber YouTube aufzutreten.

Somit scheint der Dienst zwar inspiriert zu sein durch die vorher genannten Projekte, jedoch eigene Ansätze zu verfolgen.
Diese sind nicht sofort ersichtlich/einfach einsehbar, jedoch ist das Projekt OpenSource.
Hierdurch besteht die Möglichkeit zu erkennen wie Piped arbeitet, um es „einfach“ zu halten, die kurz Fassung.

Piped verwendet ebenfalls nicht die YouTube API und verwendet eigenen Mechanismen um die Inhalte anzeigen zu können.
Dabei sollen jedoch Ressourcen effizienter genutzt werden und die Aktualität der „Feeds“ soll nahezu in „Echtzeit“ sein.

Das Projekt lässt sich ebenfalls selbst hosten/betreiben oder über eine der öffentlichen Instanzen verwenden, via Web Browser!

https://docs.piped.video/docs/why/
https://piped.video/trending

FreeTube

Dieses Frontend muss man installieren, dafür ist es jedoch sehr komfortabel und ist auch für die meisten Plattformen verfügbar.
Offiziell für Windows, MacOS und Linux, es gibt für Android einen „inoffiziellen“ Port über F-Droid.

Der Vorteil hier ist, dass man in bekannter Form, eine Anwendung installieren kann und diese für einen YouTube „Scraped“.
Dabei wird auf eigene Mechanismen gesetzt um dies durchzuführen, jedoch wird Invidious als Backup verwendet.

Man muss sagen, dass FreeTube in einer Beta ist und daher auch Fehler haben kann, doch generell ist es schön zu sehen, dass eine „native“ Anwendung für die meisten Plattformen vorhanden ist.

https://github.com/FreeTubeApp/FreeTube
https://freetubeapp.io/#download

Twitter/X

Nitter

Hier handelt es sich um ein reines Webfrontend, bedeutet es ist via Webbrowser erreichbar und ermöglichst das Nutzen von Twitter.
Hier können User oder Beiträge zu Themen gesucht werden, ohne dabei direkt Twitter zu verwenden.
Ganz ohne Tracking und Werbung!

https://nitter.net/
https://github.com/zedeus/nitter/wiki/Instances

TikTok

ProxiTok

ProxiTok ist an Nitter für Twitter angelehnt und ist für die Plattform TikTok gedacht.
Auch hier kann man sich Feeds anzeigen lassen oder speziell nach Beitragen/Usern suchen
https://github.com/pablouser1/ProxiTok/wiki/Public-instances

Deine Hilfe ist gefragt!

Gerne schreibe ich weitere Plattformen dazu, sofern hier alternative Frontends existieren, schreibe diese gerne in die Kommentare oder per Kontaktforumlar.

Im Webbrowser geht es sogar einfacher

Für Firefox und Chrome basierte Browser gibt es sogenannte Erweiterungen/Addons die dir direkt helfen auf ein alternativ Frontend weitergeleitet zu werden.
Vorteil hier ist, dass du sofort auf ein alternatives Frontend weitergeleitet wirst, wenn du z.B. einen Link von YouTube öffnest, du musst also deine Art zu suchen nicht ändern.

Redirector

https://github.com/einaregilsson/Redirector

https://einaregilsson.com/redirector/

https://addons.mozilla.org/en-US/firefox/addon/redirector/

https://chromewebstore.google.com/detail/redirector/ocgpenflpmgnfapjedencafcfakcekcd

Libreredirect

https://github.com/libredirect/browser_extension#get

https://libredirect.github.io/

https://addons.mozilla.org/en-US/firefox/addon/libredirect/

https://libredirect.github.io/download_chromium.html

Meine Meinung

Aus meiner Sicht sind alternative Frontends sehr mächtig und haben sehr flexible Möglichkeiten, deine Erfahrung zu verbessern.
Grade, wenn diese Frontends mit dem Sinn entwickelt werden, deine Privatsphäre so gut es geht zu schützen, bin ich dabei.
Natürlich ist das für Webseitenbetreiber ärgerlich da z.B. die YouTube Frontends meistens nicht nur das Tracking verhindern, sondern generell auch Werbung blockieren, auch auf Smartphones.
Damit werden Features die vom Entwickler für Premium-Mitgliedschaften gedacht sind, somit direkt ausgehebelt und uninteressant.


Doch wie schon der CEO von Valve (Gabe Newell) formuliert (dies ist kein 1:1 Zitat sondern der Inhalt den ich zitiere) hat:
You need to provide an better experience then the alternatives, then the costumer will always come to you!
Zu deutsch:
Du musst ein bessere Erfahrung liefern, als deine Alternativen. Dann kommen die Kunden immer wieder zu dir!

Wie siehst du das Thema?
Ich freue mich von dir zu lesen.

The post Für mehr Privatsphäre: alternative Frontends im Fokus first appeared on Dominik's Blog.

]]>
https://dominikkleidt.de/2024/01/31/fuer-mehr-privatsphaere-alternative-frontends-im-fokus/feed/ 0
Irrtümer bei Open Source: Aufklärung und Realität https://dominikkleidt.de/2024/01/24/irrtuemer-bei-open-source-aufklaerung-und-realitaet/ https://dominikkleidt.de/2024/01/24/irrtuemer-bei-open-source-aufklaerung-und-realitaet/#respond Wed, 24 Jan 2024 11:22:00 +0000 https://dominikkleidt.de/?p=428 Ziel des Beitrages Die Definition des Begriffs und auch die typischen Irrtümer bei Open Source sollen in diesem Beitrag betrachtet werden.Hinzu kommen noch die Attribute / Eigenschaften von Open Source im Vergleich zu „Closed Source“ Irrtümer bei Open Source Beim... Weiterlesen →

The post Irrtümer bei Open Source: Aufklärung und Realität first appeared on Dominik's Blog.

]]>
Ziel des Beitrages

Die Definition des Begriffs und auch die typischen Irrtümer bei Open Source sollen in diesem Beitrag betrachtet werden.
Hinzu kommen noch die Attribute / Eigenschaften von Open Source im Vergleich zu „Closed Source“

Irrtümer bei Open Source

Beim Thema Open Source werden gerne Verhalte angenommen die nicht unbedingt korrekt sind.
Ich beschränke mich auf die 3 häufigsten Irrtümer.

Open Source Irrtum #1: Lizenzen

Beispielweise gibt es etliche verschiedene Lizenzen die unter Open Source laufen können.
Dabei kann man, um es übersichtlich zu halten, zwischen 2 Lizenzarten unterschieden.
Die Copyleft und Permissive Lizenz.
Vereinfacht gesagt unterscheiden sich die beiden Arten darin, welche Restriktionen (Einschränkungen) die Lizenz mitgibt.

Copyleft-Lizenz

So kann unter einer Copyleft Lizenz vorgegeben werden, dass Derivate/Forks (eigen Entwicklungen die auf dem Code basieren) unter der gleichen Lizenz veröffentlicht werden müssen.

Permissive-Lizenz

Unter der Permissive-Lizenz existieren deutlich weniger/freizügigere Regeln.
Unterm Strich, darf man bei solchen Lizenzen den „Source Code“ nehmen, beliebig verändern und unter jeder Lizenz verbreiten die man selber möchte, sofern es ein eigenes Werk ist.

Übersicht Lizenzen


Copyleft-LizenzPermissive-Lizenz
GNU General Public License (GPL)Apache License
Affero GPL (AGPLMIT License
Lesser General Public License (LGPL)Berkeley Source Distribution (BSD) License
Eclipse Public License (EPL)Unlicense
Mozilla Public License (MPL)
Lizenzübersicht zu den Gruppen Quelle: https://snyk.io/de/learn/open-source-licenses/ & https://www.bitfactory.io/de/blog/open-source-lizenzen/

Open Source Irrtum #2: Open Source ist immer kostenlos

Das ist schlicht und ergreifend falsch.
Nur weil ein Projekt Open Source ist, bedeutet das nicht automatisch, dass es kostenlos ist.

Entwickler sind Menschen

Doch die Entwickler können sich ohne Geld, nicht dem Projekt und somit ebenso nicht der Pflege widmen, da diese kein Geld einnehmen.
Jedoch sind die Anforderungen von Usern oder auch „Security-Experten“ sehr hoch und man wird auch schnell kritisiert, wenn kein Patch/Update kommt.
Bedeutet, Entwickler die in ihrer Freizeit eine Software schreiben und diese allen zur Verfügung stellen, werden schnell entmutig.
Diese Entwickler rufen auch gerne zu Spenden auf, welche zwar kommen, jedoch nicht in der Menge wie es benötigt werden würde.

Wenn Infrastruktur (Cloud) oder Support geboten werden

Grade, wenn Open Source Projekte eine Infrastruktur (Cloud) oder Support anbieten, ist es wichtig, dass hier die Kosten eingeholt werden.
Beim Thema Cloud werden Hoster wie: Hostinger, Hetzner, Netcup, Amazon Web Services (AWS) uvm. genutzt.
Diese wollen bezahlt werden und können je nach Größe teuer werden.
Auch Mitarbeiter oder die eigene Arbeitszeit ist kostbar, besonders, wenn man das ganze in Vollzeit betreibt.

Beispiel Projekte

Anbei mal eine kleine Auflistung von Open Source Projekten, die kostenpflichtig sind oder kostenpflichtige Abo’s anbieten mit zusätzlichen Funktionen.

PlattformKostenlos nutzbarkostenpflichtig oder Abo
Bitwarden YesYes
ProxmoxYesYes
MattermostYesYes
JoplinNur wenn selbst gehostetYes

Open Source Irrtum #3: Open Source ist unsicherer oder sicherer als Closed Source

Ja, es gibt hier beide Stimmen.
Dabei muss betrachtet werden, welche Art von Software gemeint ist und unter welcher Programmiersprache(n) diese geschrieben wurde.

An sich sind Sicherheitslücken und Schwachstellen (vulnerabilities) nichts weiter als Funktionen im Programm die „normal“ funktionieren, jedoch nicht so vom Entwickler oder für das Produkt erdacht waren.
Zumindest ist das technisch mal die Ansicht.

Daher kann jedes Projekt, sei es Open Source oder Closed Source mal sicherer oder „unsicherer“ sein als der jeweilige Gegenpart.
Das „einfachste“ Beispiel ist die log4j Schwachstelle, aus der gleichnamigen Bliblitohek.
Diese Bibliothek wurde in vielen Java basierenden Anwendungen verwendet, um ein Logging zu ermöglichen. Jedoch ist im Dezember 2021 eine kritische Schwachstelle in dieserr Bibliothek entdeckt worden, welche log4shell genannt worden ist.
Hiermit konnten nicht autorisierte Personen vollen Admin/Root Zugang erlangen.
Dies war für alle verheerend denn z.B. Dell oder auch VMware waren hiervon betroffen.

Was ist eine Bibliothek?
In der Programmierung spricht man von eine Bibliothek, wenn man externe Ressourcen verwendet, die einem Funktionen bereitstellen, die „im Standard“ nicht vorhanden sind, oder diese vereinfachen.
Quasi eine Art: Du musst das Rad nicht neu erfinden, hier ist die Schablone.
Das ist jetzt stark vereinfacht, sollte den Zweck jedoch erklären.

So funktioniert das Open Source Prinzip

Das Open Source Prinzip ist neben den Irrtümern doch sehr vielseitig.
Es gibt mehrere Gründe, weshalb Entwickler ihre Projekte Open Source machen.
Das Wichtigste ist jedoch: Der Code auf dem das Programm oder der Dienst basiert, ist „offen“, soll heißen dieser ist öffentlich einsehbar und kann von jedem betrachtet werden.

Es sei erwähnt, dass ich mich hier auch auf 3 Gründe beschränke, es gibt natürlich noch mehr.

Grund #1: Vertrauen schaffen

Dadurch, dass jeder den Code einsehen kann, kann an sich auch jeder feststellen, ob dieser Open Source Code Schädliches tut oder nicht.
Gleichzeitig kann man die Funktionalitäten der Anwendung besser nachvollziehen!
Das schafft Akzeptanz und somit Vertrauen in den Dienst & Entwickler.

Grund #2: Gemeinsam sind wir besser

Wie heißt es so schön: „Gemeinsam sind wir stark!“
Genau das kann man sich mit Open Source zu nutzen machen.
Denn wenn der Code offen zur Verfügung steht, können auch andere Entwickler etwas zum Code beitragen.

Das kann einiges sein z.B. Fehlerbehebung oder „Patchen“ einer Sicherheitslücke.
Auch neue Funktionen sind möglich.
Worauf man also hier gerne baut, ist das „Schwarmwissen“, bedeutet, man ist als einzelner Entwickler oder auch als Team nicht mehr auf das eigene Wissen begrenzt.
Somit entsteht ein Geben und Nehmen in der Gemeinschaft, was sehr gut funktionieren kann.


Grund #3: Persönliche Gründe

Es kann auch sein, dass ein Entwickler oder Team eine Anwendung schön findet, jedoch diese Open Source zur Verfügung stellen möchte.
Das kann aus Gründen sein wie z.B. das man kein Tracking/Telemetrie haben möchte.
Aus Neugier wie so eine Anwendung grundsätzlich aufgebaut ist und funktioniert.


Meine Meinung zu Open Source

Meine Meinung zu Open Source ist gemischt.
Das liegt daran, dass bei diesem Thema schnell in Extremen gesprochen wird, die keiner vernünftigen Grundlage entsprechen.
Diese Extreme sorgen dafür, das auch die Lager sehr angespannt sind, dabei können beide voneinander profitieren, da Open Source Entwickler/Teams nicht immer die gleichen Mittel haben wie die Closed Source Gegenstücke.
Gleichzeitig können Closed Source Entwickler/Teams von der Art wie entwickelt wird und der Vielfalt an wissen in den Open Source Communties profitieren.

Wenn man die Extreme mal für sich betrachtet und somit das Thema Open Source davon abkapselt, finde ich Open Source eine effiziente Art, um nicht nur Vertrauen zu schaffen, sondern auch vom Wissen anderer zu profitieren.


Auch kann durch Open Source, die Anwendung so weiterentwickelt werden, dass diese von einem einfachen Use Case zu einem „Alleskönner“ wird.
Gutes Beispiel ist VSCodium, welches auf den Binaries (also bereits kompilierten Programm Code) von Visual Studio Code basiert.
Der Grund ist hierfür, dass Microsoft zwar die Binaries Open Source gestellt hat, jedoch ist die fertige Anwendung also Visual Studio Code (kurz VS Code) nicht Open Source.
Das liegt daran das VS Code Integrationen in die Microsoft Dienste inkl. Telemetrie und Tracking hat.

Anderes Beispiel für ein „Alleskönner“ Programm ist OBS Studio (Open Broadcaster Software Studio), welches durch Plugins der Community stark erweitert werden kann und somit mit professioneller Streaming und Recording Software nicht nur mithalten kann, sondern diese auch übertreffen kann.

Wie ist deine Meinung hierzu?
Kanntest du das Thema bereits?
Ich freue mich auf deine Rückmeldung!

The post Irrtümer bei Open Source: Aufklärung und Realität first appeared on Dominik's Blog.

]]>
https://dominikkleidt.de/2024/01/24/irrtuemer-bei-open-source-aufklaerung-und-realitaet/feed/ 0
Fremde Computer machen Clouds: Hinter den Kulissen der Internet-Clouds https://dominikkleidt.de/2024/01/18/fremde-computer-machen-clouds-hinter-den-kulissen-der-internet-clouds/ https://dominikkleidt.de/2024/01/18/fremde-computer-machen-clouds-hinter-den-kulissen-der-internet-clouds/#respond Thu, 18 Jan 2024 11:22:00 +0000 https://dominikkleidt.de/?p=430 Ziel des Beitrages Jeder hat den Begriff „Cloud“ schon gehört und dennoch weiß kaum einer, was das ist.Daher möchte ich dir heute mit diesem Artikel aufzeigen, was eine Cloud ist und welche Fallstrike das Ganze hat. SPOILER es sind fremde... Weiterlesen →

The post Fremde Computer machen Clouds: Hinter den Kulissen der Internet-Clouds first appeared on Dominik's Blog.

]]>
Ziel des Beitrages

Jeder hat den Begriff „Cloud“ schon gehört und dennoch weiß kaum einer, was das ist.
Daher möchte ich dir heute mit diesem Artikel aufzeigen, was eine Cloud ist und welche Fallstrike das Ganze hat. SPOILER es sind fremde Computer!

Auch in diesem Beitrag gilt, dass hier die vereinfachte Ansicht geschildert wird, um das Grundverständnis aufzubauen.

There is no Cloud, just anothers Computer

Ja, die Überschrift mag verwirrend sein, doch so ist es „vereinfacht“ gesagt.
Es gibt an sich keine Cloud, sondern fremde Computer bzw. Server.
Damit ist gemeint, dass im Prinzip „Cloud“ ein Begriff ist, um zu sagen, dass man die Ressourcen eines Anderen nutzt.

Also wird jemand bezahlt seine Ressourcen bereit zustellen, damit du diese nutzen kannst.
Bedeutet auch, dass nur, weil man es nicht Cloud nennt, es dennoch eine Cloud sein kann.

Hinzukommt das „Hosting“ sowas wie eine Cloud ist, wenn man es genau nimmt.
Man nimmt z.B. für Webseiten einen Webserver in Anspruch, den man selbst nicht betreibt.

Arten von Clouds

Es gibt verschiedene Arten von Clouds, diese kann man auch sehr granular runter brechen.
Wir beschränken uns auf 2 Gruppen.

Dedicated

Hiermit sind Clouds/Hostings gemeint, die einem dedizierte Ressourcen bereit stellen.
Dediziert bedeutet, dass diese Ressourcen und somit die Verfügbarkeit, garantiert werden.
Man hat also auch „Anspruch“ auf die volle Leistung und das für sich alleine.

Am ehesten kann man sich das vorstellen, in dem man seinen persönlichen Computer nimmt.
Die Leistung des Gerätes steht dir alleine zur Verfügung und du kannst die volle Leistung nutzen, ohne dass dich jemand dabei ausbremst.
Ebenfalls ist der Rechner/Server/Dienst einzig und alleine für dich vorhanden.

Diese Art von Cloud ist besonders bei sehr intensiven Anwendungen oder Strukturen erforderlich, bei denen jedes Stück Leistung zählt.

Shared

Im Gegensatz zu Dedicated teilst du dir hier die Ressourcen.
Damit ist nicht gemeint, dass jemand Einsicht auf deine Daten oder ähnliches hat, sondern dass Ressourcen wie Prozessor und Arbeitsspeicher-Leistung geteilt werden.
Hierzu muss benötigt man ein Verständnis von virtuellen Maschinen, da diese es am einfachsten erklären.

Um es kurz zu fassen, mehrere Clouds laufen physisch auf einer Maschine, welche jedoch keine Reservierung der Ressourcen vornimmt.
Es wird lediglich die Option zugeteilt bis zu X Leistung nutzen zu können, doch wenn andere mehr Leistung brauchen kann es sein, dass diese dir die Leistung „weg blockieren“, da sich diese zuerst die Ressourcen genommen haben.
Das hängt damit zusammen, dass der Host (die Maschine auf der die Cloud läuft) die reale Ressourcen Nutzung bei einer Shared Cloud automatisch verteilt und auch umverteilen kann, ganz dynamisch.

Ein „alltägliches“ Beispiel wäre hierfür, wenn bei dir zu Hause alle im Internet sind und einen 4k Stream laufen lassen, merkst du das sofort, weil deine Internet Leitung voll ausgeschöpft wird.
Gleichzeitig kannst du mit einem Download von Dateien Anderen die Bandbreite vom Internet „Weg blockieren“ das Downloads nativ „wichtiger“ gewertet werden als Streams im Netzwerk.

Attribute von Clouds

Es gibt mehrere Gründe, weshalb Clouds existieren und auch in der heutigen Zeit nicht mehr weg zu denken sind.
Um diese Sektion am ehesten zu beschreiben, es geht um Vorteile und Nachteile.
Ich nenne dies meist jedoch Attribute da immer der Kontext entscheidend ist, ob ein Vorteil oder Nachteil besteht.
Um das Ganze kompakt zu halten, werde ich sowohl für Vorteile, als auch Nachteile jeweils 3 Punkte aufführen. Es gibt natürlich noch mehr!

Positive Attribute

Als positive Attribute/Vorteile kann man einige Faktoren nennen.
Einer davon ist die „einfache“ Skalierbarkeit, damit ist gemeint, dass die Ressourcen in einer Cloud angepasst werden können.
Dabei gilt das Upgrades/Aufstocken von Ressourcen immer und sofort möglich ist.
Während Downgrades/Reduktionen von Ressourcen je nach vertraglicher Reglung erst nach einer bestimmten Mindestzeit erfolgen können.
Jedoch gibt es ebenfalls die stundenbasierte Abrechnung, hier werden „nur“ die real genutzten Stunden abgerechnet!

Ebenfalls als positiv bzw. Vorteil anzusehen, ist, dass die Ressourcen unabhängig von meiner eigenen Infrastruktur bereit stehen. Das heißt, ich muss mir um einige Dinge die im „Self Hosting“ aufkommen, keine Gedanken machen.
Dies entlastet und kann je nach Cloud sehr angenehm sein.
Es liegt daran, dass es streng genommen zum Thema Arten von Clouds noch zwei Gruppen zu benennen gibt.


Das sind die managed und unmanaged Clouds. Bei einer Managed Cloud/Managed Service ist der Dienstleister verantwortlich für die technische Bereitstellung und Aktualität das Systems.
Bei einer Unmanaged muss man sich selbst um Aktualität kümmern.
Man kann also bei einer Managed Cloud theoretisch Personal sparen und das ist grade für Privatpersonen und kleinere Unternehmen sehr interessant, da es hier schwierig sein kann, einen dedizierten IT-ler einzustellen.

Clouds bieten neben der Skalierbarkeit auch die Flexibilität, dass diese im ersten Schritt überall erreichbar sind. Somit kann jeder von überall mit den Ressourcen arbeiten, was man natürlich auch einschränken kann.
Dennoch ist der Gedanke sehr angenehm, da man es meistens im Self Hosting mit den Themen „statische IP-Adresse“ oder „dynamischer DNS (DynDNS)“ zu tun bekommt.
Somit können Clouds die aktuelle Arbeitskultur verbessern.

Negative Attribute

Keine Wirkung ohne Gegenwirkung, wie es so schön heißt und das gilt auch bei Clouds.
Die Skalierbarkeit der Ressourcen ist zwar klasse, grade wenn man merkt, dass die Anforderungen steigen, doch es kann auch sehr teuer werden, wenn man nicht aufpasst.
Das liegt unter anderem daran, dass hier die Kosten andauernd anfallen, je nach Abrechnungsart auf Stunden Basis, monatlich oder jährlich!
Daher haben einige Cloud Anbieter eine Art „Kosten Management“ eingeführt, in dem Budgets festgelegt werden können, damit dann keine Riesen Rechnung auftaucht.

Eine weitere Gegenwirkung ist auch das Clouds Abhängigkeiten mit sich bringen.
Diese Abhängigkeiten haben damit zu tun, dass ich dem Betreiber der Cloud vertrauen muss, dass dieser mit meinen Daten vertrauensvoll umgeht.
Auch vertraut man darauf, dass der Anbieter „sicher“ ist und somit nicht „einfach mal eben so“ gehackt wird, da, wenn der Cloud Anbieter gehackt wird, man immer die Gefahr hat, dass man selbst betroffen ist.
Zusätzlich kommt jedoch noch die Abhängigkeit vom Internet Anschluss zu tragen.
Was in Deutschland, wie wir alle wissen, nicht unbedingt die Besten sein müssen.
Bedeutet, ist das Internet weg, weil z.B. ein Bagger die Hauptleitung ins Gebäude gekappt hat, hat man auch keine Zugriffe mehr!

Bekannte Anbieter

Dies sind mit die „bekanntesten“ Cloud Anbieter, die man schonmal gehört oder gesehen hat.:

Microsoft Azure (hat auch mit Office365 zutun)

Amazon Web Services (AWS)

Google Cloud Plattform

Hetzner

NetCup

IONOS

Meine Meinung zu Clouds

Aus meiner Sicht sind Clouds eine Entiwcklung die kommen musste!
Dabei finde ich es besonders spannend, dass grade Privatpersonen und auch kleinere Unternehmen, „schnell“ eine IT-Infrastruktur aufbauen können.
Die klar planbaren Kosten und vor allem die Tatsache, dass man sich nicht um alles selbst Gedanken machen muss, kann sehr attraktiv sein.

Dennoch sind Clouds mit Vorsicht zu genießen.
Grade die 3 Großen Techriesen also Microsoft, Amazon und Google sind sehr beliebte Ziele von Hacking Angriffen und haben auch in der Vergangenheit schon die eine oder andere negativ Schlagzeile gemacht.
Dabei wurden entweder der Umgang mit Sicherheitslücken nicht klar kommuniziert oder es gab Bedenken seitens Datenschutz, da diese doch nicht so klar eingehalten wurden, wie zuvor angenommen.
Hier lobe ich die „privaten“ Anbieter wie Hetzner, NetCup, IONOS oder auch meinen eigenen Hoster Hostinger!
Hier mein Beitrag zum Thema Hosting

Doch die Abhängigkeiten die Clouds mit sich bringen, dürfen nicht vergessen werden und haben auch ihre eigenen Probleme.
Zudem wird oft an das Thema Cloud gedacht, dabei gelten jedoch für Privatpersonen und Geschäftskunden komplett unterschiedliche Anforderungen, was Sicherheit und Datenschutz angeht.
Sicherlich einige Basics wie die DSGVO gelten für beide.
Doch als Privatperson, kannst du dich selbst entscheiden auch Daten z.B. in den USA liegen zu haben, ein Unternehmen darf das nicht, oder nur mit sehr strengen Auflagen, die mir jedoch nicht bekannt sind.

Konnte ich dir das Thema Cloud gut erklären und aufzeigen?
Warum sind Clouds für dich Interessant und wie möchtest du diese einsetzen?
Was ist dein empfinden, das du einem fremden Computer (Server) deine Daten anvertraust?
Lass es mich gerne in den Kommentaren wissen!

The post Fremde Computer machen Clouds: Hinter den Kulissen der Internet-Clouds first appeared on Dominik's Blog.

]]>
https://dominikkleidt.de/2024/01/18/fremde-computer-machen-clouds-hinter-den-kulissen-der-internet-clouds/feed/ 0
Die Evolution der Virtualisierung: Warum Container die Zukunft sind https://dominikkleidt.de/2023/12/26/container/ https://dominikkleidt.de/2023/12/26/container/#respond Tue, 26 Dec 2023 11:57:00 +0000 https://dominikkleidt.de/?p=385 Ziel des Beitrages Heute möchte ich dir Container näherbringen.Dabei beleuchten wir, was Container sind, weshalb man diese verwendet und welche Vor-und Nachteile diese mit sich bringen.Für Verständniszwecke werden nicht alle Begriffe vertieft, falls Interesse da ist, kann dies in einem... Weiterlesen →

The post Die Evolution der Virtualisierung: Warum Container die Zukunft sind first appeared on Dominik's Blog.

]]>
Ziel des Beitrages

Heute möchte ich dir Container näherbringen.
Dabei beleuchten wir, was Container sind, weshalb man diese verwendet und welche Vor-und Nachteile diese mit sich bringen.
Für Verständniszwecke werden nicht alle Begriffe vertieft, falls Interesse da ist, kann dies in einem eigenen Beitrag beleuchtet werden.

Was sind Container?

Im letzten Beitrag haben wir das Thema virtuelle Maschinen angeschnitten, doch hier muss immer das Betriebssystem virtualisiert werden.
Das bedeutet, man hat nicht immer die gleiche Umgebung. Was ist also, wenn man die Anwendung (Applikation) nimmt und diese „virtualisiert“?

Dabei werden Bestandteile einer Anwendung in einen „Behälter“ gegeben.
Dieser Behälter kann dann immer wieder „schnell“ neu „ausgepackt“ werden, und das mit dem gleichen Zustand wie es „verpackt“ wurde.
Ähnlich wie reale Container funktionieren.

Man gibt etwas rein und nimmt es im gleichen Zustand wie es rein gegeben wurde wieder raus.
Container kann man als Weiterentwicklung von Virtualisierung ansehen, da du es auf die Basics hiervon aufbaust.

Deshalb verwendet man Container

Container haben viele Gründe.
Die beiden Wichtigsten sind, dass Anwendungsstacks (Applications stacks) schnell, einfach und immer gleich deployed (bereitgestellt) werden können.

Damit ist gemeint, dass ich einen Zusammenschluss von Anwendungen habe, die zusammenarbeiten müssen, um diese effizient aufsetzen zu können.
Gleichzeitig verwenden Container ein „eigenes“ Netzwerk, welches getrennt von der „Host“ Maschine ist.
Mit Host Maschine ist die Maschine gemeint, auf der du deine Container betreibst.
Grade Anwendungsentwickler, die oft und schnell eine neue Umgebung brauchen, haben hierdurch die Option unabhängig von Infrastruktur Technikern zu arbeiten.

Denn wenn die Entwicklung und Testumgebung bereits als Container Verbund verfügbar ist, kann der Entwickler sich eine Umgebung selbst aufbereiten.

Das ist grade für Unternehmen praktisch, da die Entwickler so effizienter arbeiten können und die Infrastruktur Techniker (auch gerne IT-Administrator oder System Engineer genannt) weniger ausgelastet werden und an ihren eigenen Projekten arbeiten können.
Doch nicht nur für Entwickler, sondern auch für Privatkunden und Unternehmen ist das interessant.
Einige Hersteller, wie z.B. Bitwarden, erlauben eine selbst betriebene Instanz des Password Managers.

Hierzu wird von Bitwarden die Installation über Container empfohlen und auch als einzige Installationsmöglichkeit supportet.
Denn wie bereits angemerkt, werden die Container Umgebungen vorbereitet paketiert und als Kunde erhält man sofort eine Installation wie vom Hersteller gedacht.

Bitwarden verwendet als Beispiel 11 verschiedene Container.
Dazu gehören auch ein Webserver und die Datenbank.
Also können ganze Dienste „containerisiert“ werden.
Hierzu wird von Bitwarden die Installation über Container empfohlen und auch als einzige Installationsmöglichkeit supportet.

Du kannst auch Container verwenden

Um Container zu verwenden, erfordert es nicht viel.
Du benötigst „nur“ einmal die eingeschaltete Funktion der Virtualisierung deiner Hardware und du musst dich für eine Container Basis entscheiden.

Den Container gibt es in einigen technischen Geschmacksrichtungen.
Die Bekanntesten sind Docker, Podman und LXC, dabei sei erwähnt, dass es noch einige mehr gibt.
Doch diese 3 sind soweit ich weiß, am meisten bekannt und verbreitet.

Container können auf fast allem betrieben werden, sei es auf einem PC, Laptop, Single Board Computer (SBC) ebenso auf einem Raspberry Pi oder auch auf Mini PCs.
Es gibt also keinen Grund es nicht auszuprobieren!
Ein beliebtes Projekt wie Bitwarden oder Pi-Hole sind auch als Container Installation verfügbar.

Attribute aká Vor-&-Nachteile von Container

Natürlich wie immer gibt es beides, wobei ich den Begriff Attribute bevorzuge.
Wir kennen es jede Stärke kann im falschen Kontext eine Schwäche sein.
Eine Schwäche wiederrum im richtigen Kontext als Stärke.

Nachteile

Zu den Nachteilen von Containern zählen, wie bei der Virtualisierung, dass diese nicht die gleiche Performance liefern, wie, als würde die Anwendung direkt auf einem Rechner laufen.

Das liegt an verschiedenen Faktoren, wie bei der „klassischen“ Virtualisierung, einer ist das immer erst auf Hardwareebene die Instruktionen abgearbeitet werden müssen und dann erst in den Container übergeben werden können.
Anmerkung: Man kann auch Container in einer VM verwenden, das nennt man dann Nested Virtualization.

Container Verbünde/Stacks können „schnell“ unübersichtlich werden.
Grade wenn man viele Container verwendet, muss eine Ordnung vorhanden sein.
Dies ist für Menschen allgemein nicht einfach umsetzbar, daher wird bei einer größeren Anzahl von Containern empfohlen eine „Verwaltung/Orchestration“ einzubinden.
Dieser kann nicht nur Übersicht liefern, sondern bietet meistens eine grafische Oberfläche, wodurch man auch weniger auf der Kommtandozeile Unterwegs sein muss.

Solange Container aus einem bekannten und vertrauenswürdigen Repository (kurz Repo), also ein Verzeichnis, verwendet wird, kann man davon ausgehen, dass die Container nicht schädlich sind.
Doch man kann auch „unbekannte“ oder „nicht signierte/kontrollierte“ Repos verwenden.
Das kann verschiedenste Gründe haben und birgt wie immer die Vertrauensfrage.
Daher ist hier zu empfehlen, grade am Anfang, nur offizielle Repositories zu verwenden, die von der Containertechnologie empfohlenen werden.

Ein weiterer Nachteil ist, dass Container dazu treiben, trotz ihrer Isolierung, die Sicherheit zu vernachlässigen.

Das geschieht grade deswegen, weil Container zwar isoliert laufen, doch entweder mit anderen Containern kommunizieren oder auch durch ein Komplimentieren der Host Maschine angegriffen werden können.

Auch werden Anwendungen im ersten Schritt auf Effizienz ausgelegt und nicht auf Sicherheit, was problematisch werden kann.
Grade wenn man nicht weiß, wie Container abgesichert werden können oder wenn die Anwendung auch als Stand Alone bzw. als nicht Container Installation angeboten werden.

Wichtig ist auch das Container „flüchtig“ sind, das heißt, dass im Standard beim „Herunterfahren“ von einem Container nicht nur der Container verworfen wird, sondern auch alle Daten die IM Container angefallen sind. Das können Dateien sein oder auch Konfigurationen.
Denn Container kommen in einem „Ready to Config“ Zustand, was bedeutet initial muss die Config selbst vorgenommen werden, was meist durch Interaktive Container Skripte oder grafische Oberflächen bewerkstelligt wird.

Man kann jedoch mit zusätzlichen Konfigurationen so genannte „persistent Mounts“ Punkte definieren.
Hier werden Daten aus dem Container mit einer Speicherlokation auf dem Host gespiegelt.
Bei Docker gibt es zusätzlich zu „persistent Mounts“ sogenannte Docker Volumens.

Vorteile

Wie bereits mehrmals erwähnt sind Container schnell und einfach aufgesetzt, wodurch der Betrieb effizient aufgenommen werden kann.
Das macht es grade für „Einsteiger“ und Entwickler einfacher Infrastrukturen zu betrieben.
Grade hierdurch sind auch „Updates“ einfacher, denn ich kann den Container verwerfen und die neuste Version des Container Image beziehen und diese ausspielen.
Habe ich noch „persistent Mounts“ definiert, wird automatisch z.B. meine Konfiguration eingespielt, oder auch meine abgelegten Daten. Der Wartungs- und Verwaltungsaufwand für die Anwendung selbst ist somit gesunken.

Grade weil Container isoliert sind, ist das Thema Debugging (Fehlersuche) vereinfacht, da man schneller herausfindet welche Komponente der Anwendung einen Fehler hat.
Dadurch können effizienter Lösungen und „Fixes“ eingespielt werden.
Auch ist es praktisch das hierdurch nicht direkt die gesamte Anwendung Probleme hat, sondern nur ein Teil.
Es kommt natürlich darauf an welchem Teil, dennoch ist es praktisch, wenn z.B. mein API Schnittstelle Container Probleme hat, ich dennoch auf den Webserver zugreifen kann.

Skalierbarkeit ist bei Servern und Anwendungen immer ein Thema und Container sind äußerst skalierbar.
Damit ist gemeint, wenn meine Anwendung anfänglich gut performant und mit der Zeit dem Andrang von Anfragen nicht gewachsen ist, kann eine weiterer Container (Stack) erstellt werden der mit dem vorherigen Container zusammen im Verbund arbeitet.

Der wohl signifikanteste Vorteil ist, dass Container Plattform unabhängig sind.
Bedeutet, wenn meine Anwendung als Container vorhanden ist, kann diese unabhängig vom Betriebssystem angeboten werden.
Lediglich die Containertechnologie muss unterstützt werden, jedoch muss die Anwendung nicht für mehrere Plattformen umgeschrieben werden.
Somit sinkt natürlich der Aufwand der Entwicklung.

Meine Meinung

Aus meiner Sicht bergen Container ein großes Potenzial, weshalb ich es als Schritt in Richtung Zukunft sehe.
Dadurch werden Virtuelle Maschinen jedoch nicht ersetzt, sondern ergänzt aus meiner Sicht.
Denn nicht jede Anwendung lässt sich als Container anbieten und das kann verschiedenste Gründe haben.

Auch das Umgebungen durch Container immer „gleich“ auf Anwendungsebene sind, finde ich klasse. Denn somit ist die Fehlerquote automatisch gesenkt, weshalb viele Unternehmen oder auch Privatpersonen in den Genuss von Anwendungen kommen können, ohne zu tief in die Materie der Anwendung zugehen.
Die Tatsache, dass ein Raspberry Pi in der Lage ist, je nach Anwendungen, 6 Container oder mehr gleichzeitig laufen lassen kann ist faszinierend.

The post Die Evolution der Virtualisierung: Warum Container die Zukunft sind first appeared on Dominik's Blog.

]]>
https://dominikkleidt.de/2023/12/26/container/feed/ 0
Virtuelle Maschinen (VM’s), nutze deine Ressourcen vielseitig und effizient https://dominikkleidt.de/2023/12/21/virtuelle-maschinen-vms-nutze-deine-ressourcen-vielseitig-und-effizient/ https://dominikkleidt.de/2023/12/21/virtuelle-maschinen-vms-nutze-deine-ressourcen-vielseitig-und-effizient/#respond Thu, 21 Dec 2023 11:52:00 +0000 https://dominikkleidt.de/?p=383 Ziel des Beitrages Der Begriff virtuelle Maschinen (VM’s) engl. Virtual Machine oder auch kurz VM ist dir bestimmt schon über den Weg gelaufen.Falls nicht, wird es Zeit! Ich will dir näher bringen was VMs sind, welche Vorteile diese bringen und... Weiterlesen →

The post Virtuelle Maschinen (VM’s), nutze deine Ressourcen vielseitig und effizient first appeared on Dominik's Blog.

]]>
Ziel des Beitrages

Der Begriff virtuelle Maschinen (VM’s) engl. Virtual Machine oder auch kurz VM ist dir bestimmt schon über den Weg gelaufen.
Falls nicht, wird es Zeit!

Ich will dir näher bringen was VMs sind, welche Vorteile diese bringen und wie du noch heute einen Nutzen daraus für dich ziehen kannst.

Auch dieser Beitrag soll eine Grundlage schaffen, Vertiefungen in Fachbegriffe werden bei Interesse oder Erfordernis in einem eigenen Beitrag behandelt.

Was sind virtuelle Maschinen (VM’s)?

Virtuelle Maschinen sind, wie es der Name schon sagt Maschinen, die nicht physisch vorhanden sind, sondern digital.

Damit ist gemeint, dass in einer physischen Maschine, z.B. deinem PC oder Laptop, eine digitale bzw. virtuelle Maschine läuft. Dabei werden Ressourcen wie Prozessor (CPU), Arbeitsspeicher (RAM), Speicher (Storage) und Netzwerk (Network) über deinen physischen Rechner bereitgestellt.

Dies geschieht durch eine Zuweisung von Ressourcen bei der Erstellung einer solchen virtuale Maschine.
Du kannst es dir vorstellen, als würdest du deinen PC nehmen und in kleine Stücke aufteilen wie bei einem Kuchen.

Warum setzt man virtuelle Maschinen (VM’s) ein?

Natürlich ist dies nicht einfach so aus Lust und Laune entstanden, sondern weil durch neue Anforderungen der modernen Zeit.
Man hat schon früh darüber nachgedacht, wie umständlich es ist, für jedes Betriebssystem eine eigene Hardware-Maschine bzw. einen Server anzuschaffen.

Jeder physische Server birgt gewisse Umstände mit sich.
Grade das Thema Platz/Stauraum, Stromverbrauch, Abwärme und auch Wartung fallen hier an.
Denn sei es bei dir zuhause oder auch bei einem Unternehmen, der Platz ist begrenzt.
Stromverbrauch ist immer teuer, besonders, wenn sich dieser vermeiden lässt.
Abwärme ist grade im Serverraum/Unternehmen ein Thema da diese abgeführt werden muss.
Das bedeutet dann, dass die Klimageräte neu ausgelegt werden oder mehr leisten müssen und daher mehr Strom verbrauchen. Gleich mehr Kosten.

Nur als Info: Serverräume werden meistens auf 20°C oder niedriger (z.B. 15°C) runter gekühlt, damit die Hardware nicht beschädigt wird.

Und zu guter Letzt die Wartung, denn jede Hardware-Maschine muss einzeln gewartet werden und hat somit ein eigenes Risiko auszufallen.
Der Vorteil mit virtuellen Maschinen (VMs) ist also, dass ich mit einer „großen und starken Maschine“ mehrere Maschinen zusammenfassen kann.
Somit habe ich weniger Raum, den ich verbrauche, weniger Stromverbrauch und weniger Wärme.

Details die zu beachten sind bei virtuelle Maschinen (VM’s)

Die Wartung wird an sich auch weniger, doch wer sich gedacht hat: „Mumm, wenn jetzt diese eine Maschine ausfällt, dann ist ja alles weg“
Hat vollkommen recht!

Daher werden meistens redundante Systeme verwendet, damit man im Falle, dass die Eine ausfällt, die Andere nehmen kann und natürlich das Wichtigste:
„Man hat ein gutes Backup für den Restore!“

Die virtuellen Maschinen lassen sich „einfacher“ sichern (backuppen) als physische Maschinen.
Gleichzeitig liefern VMs viele weitere Funktionen, doch eine der bekanntesten ist die Snapshot Funktion.
Snapshots sind kein Ersatz für Backups, können jedoch bei kritischer Änderung als ein Fall Back verwendet werden.
Denn Snapshots sind zu Deutsch Fixpunkte bzw. Momentaufnahmen des Systems.
Bedeutet, man kann auf den Zustand des Snapshots zurückspielen, sollte etwas schief gehen.

Doch VMs haben nicht nur Vorteile, wenn es inzwischen wenig bis gar nicht bemerkbar ist, sind virtuelle Maschinen nicht genauso performant wie ihre physischen Gegenparts. Das liegt an dem „Overhead“ also an dem verwalterischen Aufwand, der mit Virtualisierung einher geht.

Verschiedene Optionen zu virtualisieren

Virtualisierung kann innerhalb deines Windows, MacOS oder Linux Systems betrieben werden oder in einem dedizierten Betriebssystem für Virtualisierung.

Dabei haben die Arten ihre eigenen Vorzüge z.B. die innerhalb deines vorhandenen Betriebssystems als Software laufen und somit zusätzlich zu deinem bestehenden System.

Doch auch das ist mit Nachteilen verbunden wie z.B. noch mehr Overhead, und zwar vom Betriebssystem selbst zusätzlich zur Virtualisierung. Das kann zu Verzögerungen und Performance Einbußen führen. Wobei diese meist für den Anfang nicht relevant sind.

Bei einer Virtualisierung mittels dedizierten Betriebssystems dagegen, entsteht der Vorteil das dieses System komplett auf diese Aufgabe ausgelegt ist und somit der Overhead möglichst geringgehalten wird, was die Performance natürlich verbessert.

Mögliche Lösungen sind:
Virutal Box, Vmware Player, Hyper-V, Vsphere, Proxmox, QEMU

Möglichkeiten von virtuelle Maschinen (VM’s) für Privat

Doch was ist da für dich drin?

Das kommt drauf an welche Ziele du verfolgst.

Du kannst kosteneffizient dein eigenes Home Lab aufbauen, dich weiterbilden, dir eigene Projekte überlegen (experimentieren) oder dir auch einen neuen Skill aneignen und somit technisch versierter sein.

Ein konkretes Beispiel ist zentraler Gaming Server.

Damit meine ich, dass du deinen Host so ausstatten kannst, dass du darauf Spiele spielen kannst.
Bedeutet, wenn du zu Hause eine Große Maschine hinstellst und diese dann mittels Virtualisierung aufteilst, kannst du mit einem Rechner mehrere Personen gleichzeitig und unabhängig zocken lassen.

Das heißt auch, dass für diese Maschine mehrere zusammenlegen können!
Und ja VMs sind nicht 1:1 so performant wie physische Maschinen, je nachdem wie man diese auslegt und optimiert sind diese Unterschiede jedoch nicht bemerkbar und „nur“ Messbar.

Oder auch interessant für dich könnte es sein, dass du somit einfach neue Betriebssysteme testen kannst.
Und wenn du das System nicht mehr brauchst, kannst du es einfach löschen und da weiter machen, wo du vorher warst.

Etwas weitergedacht, könntest du auch eine VM erstellen, die ein anderes OS verwendet, als du normalerweise nutzt, um dort „verdächtige“ Links und Dateien zu öffnen.

Denn wenn du in einer Linux VM einen Virus öffnest, der für Windows ist, passiert nichts.

Dieses Vorgehen nennt man auch Sandbox/Sand Boxing.

Achtung: Maleware kann so schlau sein das zu erkennen und reagiert dann bewusst nicht, dennoch kann das ein Security Layer für dich sein.

Wenn ich von Security spreche, darf Privacy nicht weit entfernt sein: dadurch, dass VM beliebig oft und schnell aufgesetzt werden können, entstehen verschiedene Identifier die im Internet genutzt werden, um dich zu erkennen.

Durch VMs können sich diese Parameter ändern, wodurch du nicht sofort erkannt wirst.

Auch du kannst virtuelle Maschinen nutzen!

Um virtuelle Maschinen zu nutzen, musst du keinen Server besitzen, auch Consumer Hardware wie dein PC oder Laptop können Virtualisierung verwenden.

Hierzu müssen zwei Voraussetzungen erfüllt sein.

  1. Die Virtualisierung- Funktion deiner CPU muss aktiviert werden! Dies wird über das UEFI / BIOS erledigt. Die Stichworte hierfür sind:
    1. Bei Intel: Intel VT oder VT-x.
    2. Für AMD: AMD-V
    3. ARM CPUs ist mir nicht bekannt, das dies aktiviert werden muss, daher gehe ich davon aus das dies „Default“ an ist. Falls jemand mehr weiß gerne Info
  2. Willst du innerhalb deines vorhandenen Betriebssystems virtualisieren oder du setzt eine dedizierte Maschine auf.

Für den Punkt 1 gibt es einige Anleitungen, meistens muss beim Starten des Computers die F2, F8, F12 oder Del Taste betätigt werden. Hierzu kann auch die Anleitung des Herstellers konsultiert werden.

Für den zweiten Punkt musst du dich entscheiden welche Art der Virtualisierung du nutzen möchtest.

Es gibt eine Dritte Option wie du die Vorzüge einer virtuellen Maschine testen und genießen kannst, und zwar mit Hosting/Cloud.

Das Stichwort ist Virtual Private Server (VPS), denn was Hoster wie Hostinger, Hetzner und viele andere machen ist genau das.

Diese virtualisieren einen Server für dich und geben dir einen Zugriff, auf dem du Snapshots erstellen kannst, die VM so oft „kaputt“ machen kannst, wie du willst und viele weitere Funktionen mit Support eines Profis.

Meine Meinung zu VMs

Virtuelle Maschinen waren und sind ein notwendiger Schritt des Fortschritts.
Hierdurch sind in Unternehmen und auch für Privat einige Vereinfachungen möglich, wodurch auch die Hürde für interessierte geringe ist.
Dadurch kann das Wissen sich weiterverbreiten und vor allem ist dies eine Gelegenheit seine Kreativität spielen zu lassen.Die virtuellen Umgebungen sehen überall anders aus und das ist auch gut so!

Für jeden der sich privat für IT-Themen interessiert kann man virtuelle Maschinen empfehlen, den man kann nicht nur Betriebssysteme von Windows und Linux virtualisieren, sondern auch Firewall Betriebssysteme wie eine OPNSense oder pfSense. Hierdurch kann sich auch ohne Netzwerkhardware mit Networking auseinandersetzen.

Dieser Vortrag hat sich bewusst allgemein gehalten.
Wenn in der Zukunft ein Beitrag mit Vertiefung kommt, wird dieser hier verlinkt.
Wie stehst du zu dem Thema? Wirst du dir nun etwas aufbauen oder hast noch weitere Fragen?
lass es mich wissen!

The post Virtuelle Maschinen (VM’s), nutze deine Ressourcen vielseitig und effizient first appeared on Dominik's Blog.

]]>
https://dominikkleidt.de/2023/12/21/virtuelle-maschinen-vms-nutze-deine-ressourcen-vielseitig-und-effizient/feed/ 0
Digital Identity Protection: Email Security, Alias Strategies & More https://dominikkleidt.de/2023/11/22/digital-identity-protection-email-security-alias-strategies-more/ https://dominikkleidt.de/2023/11/22/digital-identity-protection-email-security-alias-strategies-more/#respond Wed, 22 Nov 2023 11:00:00 +0000 https://dominikkleidt.de/?p=318 Grund des Beitrages Die E-Mail ist nicht mehr weg zu denken und das ist auch gut so, doch deine Mail-Adresse ist viel mehr als nur ein Postfach.Mit deiner Adresse meldest du dich an diversen Diensten im Internet an oder füllst... Weiterlesen →

The post Digital Identity Protection: Email Security, Alias Strategies & More first appeared on Dominik's Blog.

]]>
Grund des Beitrages

Die E-Mail ist nicht mehr weg zu denken und das ist auch gut so, doch deine Mail-Adresse ist viel mehr als nur ein Postfach.
Mit deiner Adresse meldest du dich an diversen Diensten im Internet an oder füllst ein Kontaktformular aus.

Denn dein Postfach ist DER zentrale Hub, wenn es um deine Internetidentität geht.
Was ist alles mit deinem Mail Konto verknüpft?
Dein Instagram? Twitch? Online Banking? Ebay? Amazon?
Die Liste kann unendlich fortgesetzt werden.

Es geht somit um den Schutz eines Bestandteils deiner digitalen Identität.
Denn diese ist Ziel von diversen Angriffsszenarien.

Deshalb musst du Aliase verwenden

Auch wenn du deine E-Mail nicht „einfach so“ rausgibst, hast du ein Problem.

Denn dein Mailanbieter kann ein sogenanntes „Datenleck“ haben, wodurch meistens die Mail-Adressen von Millionen von Leuten abgezogen werden.

Bedeutet also, du könntest, ohne es zu wissen, bereits Ziel von solchen Angriffen sein.

Denn wenn jemand deine Mail-Adresse hat, kann er auch, ohne sich als du einzuloggen, deine Adresse überall bei Diensten anmelden und dich in Maillisten eintragen.

Was auch häufig passiert, meist werden solche Daten im Internet schlicht verkauft.

Bedeutet deine Mail-Adresse ist ein ideales Ziel für Hacking und Phishing Angriffen.

Damit ist gemeint, das jemand Zugang zu deinem Mail Konto erhalten könnte und alle deine Zugänge dadurch erfährt.

Auch kann dieser so deine Kennwörter zurücksetzen und dir Schaden.

Du siehst die Möglichkeiten sind also nahezu unendlich.

Ob du von einem Datenleck betroffen bist kannst du unteranderem über

https://haveibeenpwned.com/ ‚;–have i been pwned? feststellen,

So funktioniert der Alias

Alias kommt aus dem Lateinischen und wurde von seiner ursprünglichen Verwendung auf Namen umgemünzt kann man sagen.
In der heutigen Zeit heißt Alias soviel wie „oft auch…genannt“ was beim Thema Mail-Aliase sehr treffend ist.
Hier werden „weitere“ E-Mail Adressen erstellt, welche Mails genauso annehmen können wie deine „normale“ Mail-Adresse.
Dabei ist jedoch wichtig, dass diese E-Mail Aliase kein Postfach haben, sondern lediglich eine andere Adresse sind, über die man dich erreichen kann.

Stell es dir vor wie eine zweite Handynummer in deinem Dual SIM Handy.
Alternativ wie einen Nicknamen.
Du bist zwar erreichbar, doch die zweite Nummer ist nicht die Nummer für deine Notfälle.

Bedeutet mit einem Mail Alias kannst du dich weiterhin eintragen für deine Plattformen, Maillisten, Gewinnspiele etc. doch jetzt kommt der Cloue.
Wenn du keine Mails mehr von einem Anbieter haben möchtest oder das Gefühl hast das dein Mail Alias von einem Hack betroffen war, kannst du einfach den Alias abschalten oder sogar löschen.
Dich erreichen dann über diese Adresse keine Mails mehr.
Einfach so mit einem Klick erledigt-

Falls du mehrere Dienste über einen Alias laufen hast, kannst du dir einen neuen erstellen und diesen bei deinen Wunschdiensten eintragen.

Bedeutet du musst dann nicht deine E-Mailadresse ändern, sondern brauchst nur den Alias ändern.
Es ist vereinfacht gesagt ein „Dummy“ denn du rausgeben, und wenn der nicht mehr gut ist, einfach ersetzen kannst.

Aliase vs Wegwerfmailadressen

Ich höre schon die Stimmen:
Was ist mit Wegwerfmailanbietern.

Versteh mich nicht falsch, ich habe solche Dienste auch verwendet, doch man kommt relativ schnell vor einer Blockade.
Denn die öffentlichen Anbieter kommen mit der Zeit auf Blocklisten wodurch diese Anbieter nicht zu verlässlich funktionieren, wofür diese auch nichts können.
Hinzu kommt auch, dass du KEINE Kontrolle hast, da diese Adressen nur zeitlich begrenzt sind und danach gelöscht werden.
Auch sind das eigene Postfächer, welche NICHT an dein echtes Postfach weiterleiten können.

Je nachdem welchen Anbieter du wählst, kannst du von weiteren Features profitieren.
Ein davon sind „Reverse-Aliase“, dass bedeutet wenn du einen Alias verwendest um eine Mail zu erhalten kannst du genau mit diesem Alias auch auf Mails antworten.
Das geht mit „Wegwermailadressen“ nicht.

Anbieter

Fazit

Ich empfehle dir unbedingt E-Mail Aliase zu verwenden um deine digitale Identität zu schützen.
Dabei kannst du sowohl einen der oben genannten Anbieter verwenden oder Aliase auch auf deinem eigenen Mail Server definieren.

The Choise is yours

The post Digital Identity Protection: Email Security, Alias Strategies & More first appeared on Dominik's Blog.

]]>
https://dominikkleidt.de/2023/11/22/digital-identity-protection-email-security-alias-strategies-more/feed/ 0
Navigate the Web: Unlocking Privacy with Search Engines, Data Security, and SEO Insights https://dominikkleidt.de/2023/11/15/navigate-the-web-unlocking-privacy-with-search-engines-data-security-and-seo-insights/ https://dominikkleidt.de/2023/11/15/navigate-the-web-unlocking-privacy-with-search-engines-data-security-and-seo-insights/#comments Wed, 15 Nov 2023 11:00:00 +0000 https://dominikkleidt.de/?p=316 Warum dieser Beitrag?/Vorwort/Ziel Ich glaube daran, dass Suchmaschinen (eng. Search Engines) ein fester Bestandteil des Lebens sind. Suchmaschinen sind ein Quell von Wissen, Möglichkeiten Neues zu entdecken oder auch einen guten Deal zu finden. Doch Suchmaschinen können auch Schattenseiten haben,... Weiterlesen →

The post Navigate the Web: Unlocking Privacy with Search Engines, Data Security, and SEO Insights first appeared on Dominik's Blog.

]]>
Warum dieser Beitrag?/Vorwort/Ziel

Ich glaube daran, dass Suchmaschinen (eng. Search Engines) ein fester Bestandteil des Lebens sind.

Suchmaschinen sind ein Quell von Wissen, Möglichkeiten Neues zu entdecken oder auch einen guten Deal zu finden.

Doch Suchmaschinen können auch Schattenseiten haben, in dem diese einen tracken und somit die Privatspähere ihrer Nutzer ignorieren.

Das Ziel dieses Beitrages ist es, vereinfacht, aufzuklären was Suchmaschinen sind.

Wie diese funktionieren und weshalb es wichtig ist, das du dir bewusst bist wie ein „Profil“ von dir angelegt wird für z.B. Werbung.

Auch gehen wir nicht auf jedes technische Feature ein wie z.B. TOR/onion Dienste.

Eckdaten/Bereiche

Bevor wir ins Detail gehen, möchte ich dir eine Übersicht geben welche Themen/Bereiche wir hier beleuchten werden.
Dabei wird darauf eingegangen, wieso die „normalen“ Varianten eher zu deinem Nachteil sind und weshalb diese kleine Änderung mit einer Alternative viel bringen kann.

  • Der Anfang (Basis)
  • Internet Browser
  • Suchmaschinen ←Hier befinden wir uns in diesem Beitrag
  • Alternative Frontends für deine Lieblingsplattformen
  • Android Betriebssysteme
  • Linux Betriebssysteme
  • Windows Einstellungen für mehr Privatsphäre
  • Aussicht auf weitere Themen

Was sind Suchmaschinen überhaupt

Vorab, hier wird das Ganze vereinfacht dargestellt, da es viele Unterthemen hierzu geben kann.

Suchmaschinen kann man wie einen Bibliothekar für das Internet sehen.

Sie indexieren die verfügbaren Internetseiten und passen ihre Suchergebnisse mit einem Algorithmus deiner Anfrage an.

Bedeutet also, du gehst zu deiner Suchmaschine nach Wahl und gibst ein, wonach du suchst, oder was du wissen willst.

Die Suchmaschine baut anhand deiner Eingabe einen Index auf, welcher mit dem Algorithmus gefiltert wird.

Ähnlich also zu einem Bibliothekar, welchem du sagen kannst was du suchst und dieser dir weitere Fragen stellt um die Suche auf dich anzupassen.

Das „Nachfragen“ vom Bibliothekar nimmt einem in diesem Fall der Algorithmus ab.

Um nun zu funktionieren, werden mehrere Teilschritte durchlaufen.

Die Wichtigsten sind die Folgenden:

CrawlingIndexingRanking

Das Internet wird nach Inhalten durchsucht, wobei der Code/Inhalt jeder gefundenen URL überprüft wird.

Speichern und Organisieren der während des Crawling-Prozesses gefundenen Inhalte. Sobald sich eine Seite im Index befindet, wird sie bei relevanten Suchanfragen als Ergebnis angezeigt.

Bereitstellung der Inhalte, die die Suchanfrage eines Nutzers am besten beantworten, d. h. die Ergebnisse werden nach der höchsten bis zur geringsten Relevanz geordnet.

Big Tech Suchmaschinen sind keine Freunde

Auch wenn die Big Tech Suchmaschinen mit vielen Features locken „um eine schöne Erfahrung“ zu machen, sind grade diese es, die viel mehr von dir wollen.

Es werden Daten gesammelt, denn Daten sind Macht in unserer Zeit.

Sei es die Integration von KI in der eigenen Suchmaschine oder die Integration von einem Geräte übergreifenden Konto, dass dir alles synchronisiert, you name it.

Alles nette Features, doch es werden dabei IMMER Daten über einen gesammelt, selbst wenn man die Cookies ablehnt, werden weiterhin so viele Daten wie legal möglich einverleibt.

Beiden diesen Daten kann es sich unter anderem um folgende Daten handeln:

  • Aufzeichnungen
  • Suchverlauf
  • persönliche Daten
  • Browsering/Surfing Verhalten
  • Wie du auf die Suchmaschine gekommen bist
  • Standort
  • IP-Adresse
  • Weitergabe der Aufzeichnungen an Dritte
  • zur weiter Verarbeitung
  • weil deine Daten verkauft wurden
  • Tracking
  • Anhand der Aufzeichnungen wird dein Standort mit einem 10 Kilometer Umkreis genau angegeben
  • Profilbildung Anhand deines Verhaltens, sei es beim Surfen, suchen etc.
  • Durch die Profilbildung wird eine „personalisierte“ Erfahrung versprochen, doch es geht viel mehr darum die eindeutig identifizierbar im Internet zu machen.

Allgemeines zu Alternativen

Die Alternativen die du gleich sehen wirst, haben vorab eine Sache gemeinsam:

Sie möchten eine Privatsphäre-schützende Suchmaschine sein.

Bedeutet, dass alle genannten Anbieter dein Recht auf Privacy respektieren und Maßnahmen ergriffen haben, um diese zu schützen.

Dabei werden die oben genannten Daten entweder gar nicht oder nur für technisch relevante Zwecke genutzt.

Mit technisch relevant meine ich, dass deine IP-Adresse nötig ist, damit du die Seite nutzen und auch Suchergebnis erhalten kannst.

Jedoch wird kein Tracking betrieben.

Dadurch resultiert, dass auch deine Daten nicht verkauft werden, da diese auch nicht gesammelt werden.

Das mag ja alles schön sein, doch da es sich hier IMMER um private Anbieter/Unternehmen handelt, ist die Frage offen wie machen diese Suchmaschinen Geld?

Nun es gibt mehrere Möglichkeiten.

Die wohl beliebteste und häufigste verbreite ist die „Privatspähere respektierende“ (engl. Privacy respecting) Werbung.

Damit ist gemeint, dass du Werbung in Form von Links erhältst, für die der jeweilige Anbieter eine Leistung erhält. Dabei wird jedoch nicht auf das Klickverhalten oder auf mögliche Profildaten zurückgriffen. Sondern es zählt lediglich, dass jemand auf den Link geklickt hat oder es wird die Anzahl der bereitgestellten Anzeigen hergezogen.

Dabei werden keine Daten übertragen wie „Wo du vorher warst?“.

Auch die Art der Werbung ist neutral, bedeutet du erhälst Werbung basierend auf deine Suche.


Beispiel

Du suchst nach einem Auto, dann erhältst du Werbung zu Autos.

Anderes Beispiel: Du suchst Bücher, dann wird dir Werbung zu Büchern angezeigt.

Eine weitere Möglichkeit der Finanzierung ist „kostenpflichtige“ Dienste anzubieten und diese zu Bewerben um einen Teil zu finanzieren. Hier kann es sein, dass ein VPN Dienst der Hauptfokus des Herstellers ist und die Suchmaschine „nur“ ein Nebenprodukt.

Auch die Möglichkeit über das Einwerfen von Geld eine „Premium“ Variante zu nutzen, ist möglich.

Dabei wird dann gar keine Werbung angezeigt, jedoch finanziert man das Projekt direkt.

Affiliate Programme sind ebenfalls möglich für einen Finanzierung.

Spenden werden von den meisten Anbietern ebenfalls angenommen.

Du siehst schon „Werbung“ fällt hier recht oft, dass liegt daran, wenn Dienste kostenlos angeboten werden, die Anbieter das Geld auf andere Wege wieder erwirtschaften müssen.

Daher gibt es auch „Debatten“ über das Thema Adblocker.

Zum Thema Adblocker wird noch ein eigener Blogbeitrag erstellt, ausgelöst durch die YouTube Anti-Adblocker Maßnahmen.

In diesem Beitrag werden „nur“ kostenlose Alternativen betrachtet.

Bedeutet, Anbieter die eine Search Engine hinter einem bezahlten Dienst anbieten, fallen hier raus.

Das soll jedoch nicht heißen, dass diese Anbieter schlecht sind.

DuckDuckGo

Diese Search Engine hast du bestimmt bereits mal gesehen.

Die Suchmaschine mit der Ente als Logo, ist am September 2008 in der USA gestartet und seitdem eine Konstante im Internet.

Wie vorher oben erwähnt, finanziert sich DuckDuckGo (kurz. DDG) über Werbung und Spenden.

Dabei greift die Suchmaschine auf das „Microsoft Adversiting“ Netzwerk zu.

Dieses Netzwerk wird, wie der Name bereits verrät, von Microsoft betrieben und bietet Werbung unter anderem auf Bing (Microsofts eigener Suchmaschine) und Yahoo Search an.

Dabei wird seitens DuckDuckGo betont, dass die Werbung aus dem Netzwerk keine Tracker beinhaltet und es auf die Vereinbarung mit dem Werbetreibenden ankommt.

Ebenfalls hat DDG einen „Affiliate“ Status mit Ebay, und Amazon, wodurch alle Links die über DuckDuckGo zu Ebay oder Amazon führen eine Beteiligung mit sich ziehen.

Dabei wird auch hier betont, dass es eine „Vereinbarung“ gibt, durch welche das Tracking und Sammeln von Daten ausgeschlossen ist.

Die Suchergebnisse bzw. die Webseiten werden teilweise selbst und durch Indexierungen von Yahoo, Yandex und Bing möglich.

Auch bietet DDG ein paar Feautres an wie z.B. !BANGS, damit sind Kürzel gemeint die bei DuckDuckGo vor der Suche eingegeben werden können um direkt das Suchergebnis auf der Wunschplattform zu erhalten.

Beispiel !BANG: !yt IT-Security

!yt steht in dem Fall für YouTube und als Suchbegriff übergeben wir IT-Security.

Als nächstes wird über DDG eine Anfrage mit diesem Suchbegriff an YouTube geschickt und wir befinden und direkt auf der Video Plattform mit unser Wunschsuche.

Liste aller bangs

https://duckduckgo.com/bangs

Startpage

Startpage ist in den Niederlanden entwickelt worden und ist somit auch Teil der EU.

Bedeutet alleine die DSGVO (Datenschutzgrundverordnung) ist eine Voraussetzung.

Doch das ist nicht alles, denn Startpage bietet sogar ein „Proxy“ Feature an, wodurch eure Suchen gar nicht auf dem Papier auftauchen, da Startpage für euch die Suche abgibt.

Ein weiterer Vorteil von Startpage ist, dass hier keine eigenen oder Indexierung von anderen Suchmaschinen genutzt werden….außer von Google!

Denn wir wissen alle, Google hat die besten Ergebnisse.

Daher geht Startpage her und übernimmt die Indexierung von Google für die Suche, dabei werden eure Daten etc. natürlich nicht weitergeben.

Ebenfalls wird das Tracking unterbunden, sowohl bei der Standardsuche als auch beim Proxy.

Wie das genau passiert ist nicht einsehbar, was auch Sinn macht, da sonst jemand diesen Mechanismus aushebeln könnte.

Hinzu kommt, dass Edward Snowden Startpage als Alternative empfiehlt, da Startpage keine Daten speichert oder weiter verarbeitet.

Snowden ist, sofern nicht bekannt, DIE Koryphäe wenn es um Privatspähere und Anonymität geht.

https://www.startpage.com/?t=light

QWANT

QWANT kommt ebenfalls aus der EU, nämlich Frankreich.

Was QWANT jedoch besonders macht sind zwei Aspekte.

Zum Einen ist diese Suchmaschine in Frankreich so weit verankert, das die gesamte französische Regierung diese Search Engine verwenden und dies auch aktiv sollen.

Dass Andere ist, dass zusammen mit dem französischen Bildungsinstitut eine „Kinderfreundliche“ Variante erschaffen wurde mit QWANTJunior : https://www.qwantjunior.com/

Diese Version von QWANT soll ermöglichen, dass Kinder ohne Ablenkungen und ohne Werbung eine Suchmaschine verwenden können.

Finanziert wird offiziell nur um Kosten zu decken für Hosting. (Domain, Server, Traffic etc.)

Ob dem so ist, kann ich nicht verifizieren.

Dabei wird ähnlich wie bei anderen Bewerbern, auf Werbung gesetzt die dich nicht trackt und auf deine Suchanfrage bezogen ist.

Indexiert wird von QWANT sowohl selbst als auch wird die Bing Indexierung herrangezogen.

https://about.qwant.com/de/

https://about.qwant.com/de//search/

SearXNG

SearXNG ist sehr interessant, da diese Suchmaschine nicht nur im Internet nutzbar ist, sondern jeder kann seine eigene Instanz davon betreiben.

Ebenfalls ist SearXNG open-source heißt jeder kann den Quellcode anschauen und sowohl Verbesserung beitragen, als auch feststellen ob doch Tracker eingebaut sind.

Nach aktuellem Stand (25.10.2023) sind keine Tracker/Profil Bildungen möglich.

Um diese Search Engine selbst zu betreiben, empfehle ich das GitHub Repository zu konsultieren, denn hier werden alle möglichen Installation unter „Setup“ verlinkt und erklärt.

Das Projekt selbst wird durch Spenden finanziert und es steht jedem frei seine eigene Instanz für sich selbst oder public zu installieren.

Volle Kontrolle für jeden.

https://github.com/searxng/searxng

https://searx.space/

https://docs.searxng.org/

Fazit

Suchmaschinen müssen keine Profile von dir erstellen oder dich tracken um gute Suchergebnisse zu liefern.

Auch kann man sich durch andere Wege finanzieren, wie es die oben genannten Search Engines vormachen.

Das ist gut, denn somit kann man, ohne alle Daten hergeben zu müssen, Suchmaschinen verwenden.

Genauso lernt man auch durch die anderen Maschinen, seine Suchanfragen besser zu formulieren.

Was bedeutet, dass die erste Schnittstelle zum Thema SEO (Search Engine Optimazation) vorhanden ist, wenn auch nur aus der Benutzersicht.

Ich hoffe, dass du nun eine der genannten Suchmaschinen verwendest oder vielleicht sogar eine andere, die mir nicht bekannt ist.

Lass es mich gerne in den Kommentaren wissen um an deinem Wissen teilzuhaben.

The post Navigate the Web: Unlocking Privacy with Search Engines, Data Security, and SEO Insights first appeared on Dominik's Blog.

]]>
https://dominikkleidt.de/2023/11/15/navigate-the-web-unlocking-privacy-with-search-engines-data-security-and-seo-insights/feed/ 3