There are also mutt and neomutt.
I personally have been using the latter for years, but it requires some time to setup and tweak until it fits your purposes.
Documentation is top-notch though, and customizability a first-class concern.
Ich kann bzw. werde nur zu dem zweiten Punkt etwas sagen. Hier wurde ja keine kryptografische Verschlüsselung “gebrochen”, sondern es wurde eine Umleitung (der “Man in the middle”) eingeführt, eingehende Daten vom Client (Nutzer) mitgeschnitten und an den Server weitergeleitet.
Das können sowohl Nutzer als auch Serveradmins merken, theoretisch. Nutzerseitig geht man im Moment eben noch davon aus, dass nur solche CAs vom Browser als Vertrauenswürdig eingestuft werden, die bestimmte Mindestkriterien erfüllen. Das ist heute bereits nicht perfekt, wie etwa hier dazu angemerkt wurde.
Aber zumindest ist es nach heutigem Stand für diese CAs verpflichtend, dass sie sich an den “Certificate Transparency Log”-Standard halten. Ungewöhnliche Logeinträge haben die Server-Admins in dem verlinkten Artikel auch bemerkt und auf crt.sh verwiesen, sie hatten aber kein automatisches Monitoring dafür.
Wenn man eine Domain verwaltet, kann man nach unauthorisiert ausgestellten Zertifikaten Ausschau halten. Das kann man entweder selbst irgendwie implementieren. Oder man nutzt halt vorhandene Dienste wie hier beschrieben, bei welchen man automatisch alarmiert wird.
Ob das deswegen eine gute Idee ist sei mal dahingestellt. Davon abgesehen dass die Provider sich eine “Verwertung” rausnehmen (war zumindest mein letzter Informationsstand bei Gmail). Bei dem letzten Okta-Sicherheitsvorfall war z.B. auch ein Problem, dass Leute Credentials von anderen Services in ihrem Google Account gespeichert hatten und dieser mutmaßlich gepwnt wurde.
Für das dezentrale Verteilen von “Dritt-Credentials” braucht es einen guten Grund und der Benutzer muss sich darüber vor allem im Klaren sein. Hier bei Outlook ist das durch die unklare Kommunikation wohl nicht der Fall, sonst wären jetzt nicht alle überrascht.
Laut einem Nutzerkommentar auf Heise (also aus erster Quelle!) ist dieses Outlook nur eine gewrappte Webapp und lädt, wenn man offline ist, nicht mal die UI.
Mir hat ein Dozent sich aus dem Grund mal verweigert, das Kurspasswort für die Vorlesungsmaterialien mitzuteilen. Ich war an dem Termin als das mitgeteilt wurde nicht in der Vorlesung weil ich eben arbeiten musste, was von dem Dozenten mit dem Kommentar “ja das ist dann eben sehr schlecht” versehen wurde.
Es kommt aber auch sicher auf Studiengang und Hochschulort an wie (un-)gern das gesehen ist.
I didn’t even know about libredirect :)
Schade, dass der Domaininhaber anscheinend erfolgreich verklagt worden ist.
It’s “only” a demo. The available space feels a little limited and I assume is larger in the full version. Still, it’s a neat game cozy game idea :)
In Bayern setzt man lieber auf mobile Windräder, a.k.a. Flugtaxis.
Ich benutze seit Jahren borgbackup, nachdem ich zuerst mit rsync und dann rsnapshot angefangen hatte. Automatisches Backup erfolgt denke ich entweder über udev-Regeln (Backup beim Anschließen), oder in regelmäßigen Intervallen (benutze ich nicht) wie z.B. hier beschrieben.
Borg hat im Gegensatz zu rsync rsnapshot den Vorteil, dass auf der Sub-File-Ebene dedupliziert wird, d.h. nur weil eine Datei sich an einer Stelle geändert hat, wird der Rest der Datei nicht nocheinmal kopiert. Das einzige was ich zusätzlich empfehlen würde, wäre von vornherein mit compression --zstd,9
oder so zu arbeiten.
I used tmsu (“tag my shit up”) for a while, but it required too much discipline and then I dropped it.
In addition, tools like fzf
for fuzzy file-search (comes with shell integration to e.g. replace the default history search in bash) and ripgrep-all
made this kind of organization unnecessary for me. It now suffices to have a vague idea where a thing is located and I can do a brute-force search in a few seconds.
The next-level filesystem argument is brought forward every few months, but I’m not buying it.
and then suddenly there’s the perfect use case
Yeah but like WHAT?
Just so that you have an additional data point, here’s how I do it.
I run a backup first, using borg-backup
. I used rsync
in the past, then rsnapshot
and now borg since it allows for compressed incremental backups, diffing on the “chunk” level, meaning I won’t backup the entirety of a modified file again and safe a lot of space.
I used yay
before, but like you I didn’t want to go into it blindly and do some modicum of sanity-checking the PKGBUILD for changes beforehand. Since it wasn’t obvious on what would be the best way of using yay
for doing this, I asked around on the ArchLinux Forum, and ultimately decided to try one of the simpler tools suggested in the Arch Wiki, aurutils
.
After setting it up (the author helped me migrate), I now use it as follows:
aur repo --upgrades
: Searches for new versions of aur packages and displays themaur sync --upgrades --no-build
: Performs a git-pull under ~/.cache/aurutils/sync
and opens vifm
so that I can look at a diff of the PKGBUILD and all the other changes in the affected directory.aur sync --upgrades --no-view
: Builds the package. It is now available as part of the custom (local) repository used only for aur packages, but hasn’t been upgraded yet. That is, a package.tar.gz
or whatever has been created and put into ~/.cache/aurutils/sync/
, where the PKGBUILD
resides as wellsudo pacman -Syu
: Upgrades all packages from all repositories, including the ones from the custom repositoryI won’t argue pro or against one aur helper or the other, but I feel like I have a little more insight about what happens under the hood since I made the switch. That being said, in the very beginning, I managed aur packages manually. This works also, but at some point became too tedious for my taste. I am happy with the semi-automatic approach I am using now.
Ich schnappe immer wieder mal was auf von https://news.ycombinator.com/ oder https://lobste.rs.
Eine weitere interessante Quelle von kleinen, unbekannten Blogs könnte https://blogs.hn sein, insb. mit Shuffle
.
Ich hab mir über die Jahre eine kleine Auswahl angesammelt mit meinem RSS-Reader. Über die Jahre sammelt sich da echt was an und man kann die Feeds auch durchsuchen, falls man sich nur noch dunkel an einen Titel erinnert den man vor Jahren gelesen hat z.B.
Um noch einen konkreten Blog hierzulassen: https://brr.fyi/ ist von einem Mitarbeiter von McMurdo Station, Antarktis. Ist ausnahmsweise mal nicht technischer Natur sondern hat auch etwas Slice of Life - Charakter.
I should’ve done my homework before replying then :)
Although the relevant links have already been provided, the gist is
It might be a dud, but at least you’ll know :) In any case, I would consider checking https://forums.debian.net/ as well, in your case. Thinkpad + Debian sounds like a common combination, so the search function there might show some results.
I don’t know if this will be terribly useful for helping with your problem. I had this problem very seldomly and I believe it was related to some X.org problem which was fixed after an update, but it could of course be something entirely different for you.
As a very first step, I would maybe look if there is anything suspicious going on in the output of sudo journalctl -S
. Possible invocations are sudo journalctl -S 2023-08-14
, or -S today
or -S yesterday
, or just sudo journalctl
but then there may be a lot of output.
Oorrr, your distro doesn’t use systemd and this command doesn’t work (in which case you could try dmesg
or looking under var/log
manually, probably one of the most recently modified logfiles in there.
Depending on your distro there may be of course dedicated forums where the problem may already be known. The usual advice about updating packages etc. I will assume you have already followed^^
No? This will search the logfiles (if irssi is configured to create those at all) for a pattern. This still requires that you had to have an irssi client running and connected to the server/channel in question, during the time the user is afk. Which is why others recommend e.g. setting up ZNC.