Zed 1.0 : L’éditeur de code performant et “IA-native” dévoile son ambition et suscite le débat
Zed annonce la sortie de sa version 1.0, marquant l’aboutissement de cinq années de développement pour créer un éditeur de code “fondamentalement meilleur”. Abandonnant l’approche web (comme Atom/Electron), Zed est conçu “comme un jeu vidéo” en Rust, exploitant le GPU via son framework GPUI pour une performance et une réactivité accrues. L’éditeur intègre nativement l’IA avec des agents parallèles et des prédictions, et vise une collaboration humaine-IA fluide via son moteur DeltaDB. Une offre Zed for Business est également lancée.
Cette innovation technique est saluée, de nombreux retours soulignent sa rapidité et son expérience “batteries incluses” face à des alternatives jugées plus lourdes. Cependant, ses conditions d’utilisation suscitent des débats. Des clauses larges accordant à Zed le droit de “traiter” les données client, y compris pour la télémétrie et potentiellement la création d’œuvres dérivées, soulèvent d’importantes questions sur la confidentialité et la propriété intellectuelle. Malgré la possibilité de désactiver certaines fonctionnalités IA et la télémétrie (par défaut activée), des inquiétudes persistent quant à l’étendue de la collecte de données, aux garanties de rétention et aux droits de modification unilatéraux des conditions.
- Discussion HN : Lire la discussion
- Article source : Zed is 1.0 — Zed’s Blog
Facturation excédentaire : la chaîne “HERMES.md” dans les messages de commit Git détourne les requêtes de Claude Code vers un forfait hors quota.
Une anomalie critique a été identifiée dans le service Claude Code d’Anthropic : la présence de la chaîne sensible à la casse HERMES.md dans l’historique récent des messages de commit Git d’un dépôt provoque le routage des requêtes API vers une facturation “d’usage supplémentaire” au lieu d’utiliser le quota inclus dans les abonnements Max. Un abonné a ainsi été débité de 200 $ alors que la capacité de son plan Max n’était utilisée qu’à 13%. Le déclencheur est la chaîne dans les messages, et non la présence d’un fichier réel, en raison de l’inclusion des commits récents dans le prompt système de Claude Code.
Cette situation a soulevé de vives inquiétudes quant aux pratiques de facturation et à la gestion du support client d’Anthropic, perçu comme insuffisant et majoritairement automatisé, rendant difficile l’obtention de remboursements pour des erreurs techniques. La société a été critiquée pour son manque de transparence et sa réactivité tardive face aux problèmes soulevés, ne répondant pleinement qu’après une forte résonance publique. Face au tollé, Anthropic a finalement promis un remboursement intégral et des crédits d’utilisation supplémentaires aux utilisateurs affectés, reconnaissant un défaut dans son système de routage des bugs.
- Discussion HN : Lire la discussion
- Article source : HERMES.md in git commit messages causes requests to route to extra usage billing instead of plan quota · Issue #53262 · anthropics/claude-code · GitHub
Le Débat Complexe sur la Vérification de l’Âge en Ligne
L’article n’étant pas disponible, cette analyse se fonde exclusivement sur les discussions fournies. Le débat central concerne la protection des enfants en ligne face aux menaces réelles (pédopornographie, harcèlement, contenus addictifs, troubles de la santé mentale liés aux médias sociaux) et la préservation des libertés fondamentales sur internet.
Des propositions législatives cherchent à imposer une vérification d’âge, parfois au niveau du système d’exploitation, pour forcer les plateformes à assumer leur responsabilité. Cependant, de fortes oppositions craignent une surveillance de masse, l’érosion de l’anonymat, et un contrôle étatique sur la liberté d’expression. Des préoccupations sont soulevées quant à l’inefficacité pratique de ces mesures, la création de marchés noirs d’identités et l’imposition de normes culturelles spécifiques. Une alternative souvent suggérée est l’utilisation d’en-têtes RTA (Ratings for Internet Content) permettant aux sites de s’auto-classer, offrant un contrôle plus granulaire et respectueux de la vie privée aux parents. Ce dilemme illustre la tension persistante entre la sécurité des mineurs et le maintien d’un internet ouvert et anonyme.
- Discussion HN : Lire la discussion
- Article source :
Les bugs que Rust ne détectera pas | corrode Rust Consulting
Une analyse des 44 vulnérabilités (CVEs) découvertes dans uutils, la réimplémentation Rust de GNU coreutils, souligne que les garanties de sécurité du langage ne couvrent pas toutes les catégories de bugs, particulièrement aux interfaces système. Bien que Rust excelle à prévenir les failles de sécurité mémoire (comme les dépassements de tampon), ces vulnérabilités ont échappé au borrow checker et aux outils standards. Une analyse critique relève même qu’une faille de sécurité mémoire a été identifiée dans uutils, contredisant une affirmation initiale.
Les problèmes majeurs incluent des vulnérabilités TOCTOU (Time Of Check To Time Of Use) liées à la résolution de chemins entre deux appels système, une gestion incorrecte des permissions et des identités de fichiers (souvent comparées par chaîne plutôt que par identifiant unique), des hypothèses erronées sur l’UTF-8 pour les chemins Unix qui manipulent des octets bruts, et des risques de déni de service par panic! ou erreurs ignorées. La divergence de comportement par rapport aux outils GNU originaux et les failles lors du franchissement des frontières de confiance (ex: chroot) sont également pointées du doigt.
Ces cas révèlent que l’écriture de code Rust “idiomatique” pour les systèmes exige une compréhension approfondie des subtilités et des “saletés” du système d’exploitation, allant au-delà des protections offertes par le compilateur.
- Discussion HN : Lire la discussion
- Article source : Bugs Rust Won’t Catch | corrode Rust Consulting
Impact culturel et dynamiques de jeu : Leçons d’une légende urbaine et d’une conception interactive
L’article original n’ayant pu être chargé, cette analyse s’appuie sur des échanges connexes. Une légende urbaine persistante concernant la sortie de Dragon Quest III au Japon illustre l’impact culturel des jeux vidéo. Il était souvent affirmé qu’une loi aurait été adoptée interdisant la vente de jeux en dehors de certains jours, suite à l’arrestation de plus de 300 écoliers pour absentéisme et une baisse de productivité nationale. En réalité, bien que des vols de jeux aient été si répandus qu’ils aient mené à des audiences parlementaires, aucune loi de ce type n’a jamais été promulguée, révélant la puissance de la rumeur face aux faits.
Ces échanges soulignent également un intérêt pour des mécaniques de jeu plus complexes, telles que des terrains difficiles à traverser ou des labyrinthes. Diverses activités interactives sont évoquées, allant de la chasse au trésor et la réalisation de paniers au football, à des interactions plus ludiques comme faire griller des guimauves ou caresser un chat, suggérant un environnement de jeu riche en exploration et en défis cachés. Des retours techniques sur l’interface et des astuces pour trouver des éléments rares témoignent de l’engagement des utilisateurs.
- Discussion HN : Lire la discussion
- Article source :
Lancement d’une plateforme de code open source pour le gouvernement - Digital Government
Les Pays-Bas ont lancé code.overheid.nl, une plateforme collaborative destinée au développement et à la publication de logiciels open source pour l’administration. Ce projet pilote, s’appuyant sur Forgejo – une alternative européenne et souveraine à GitHub et GitLab – vise à renforcer la souveraineté numérique du pays et à réduire sa dépendance aux services technologiques non-européens.
Cette démarche s’inscrit dans une tendance plus large des gouvernements européens cherchant à sécuriser leurs infrastructures numériques. Un cas emblématique est celui du système d’authentification national néerlandais, DigiD. L’acquisition potentielle de son hébergeur, Solvinity, par la société américaine Kyndryl suscite de vives inquiétudes quant à la sécurité des données et à la conformité au RGPD face aux lois américaines telles que le CLOUD/PATRIOT Act, en dépit des réserves parlementaires et publiques.
La plateforme code.overheid.nl, initiée par le bureau du programme Open Source du ministère de l’Intérieur, invite les développeurs à y contribuer. L’objectif est de mutualiser les outils et d’éviter la duplication des efforts, comme en témoignent des initiatives visant à analyser les données de vote ou à rendre la législation exécutable par machine. Des défis majeurs persistent néanmoins, qu’il s’agisse de l’efficacité de la contribution open source ou de la migration des infrastructures propriétaires existantes.
- Discussion HN : Lire la discussion
- Article source : Soft launch of open-source code platform for government - Digital Government
Pour une fédération des forges : Tangled et l’avenir de la collaboration décentralisée
La fragilité inhérente aux plateformes centralisées, illustrée par la récente instabilité de services comme GitHub, met en lumière le besoin critique d’une fédération des forges logicielles. Tangled propose une solution en s’appuyant sur le protocole ATProto (Authenticated Transfer) pour bâtir un écosystème de collaboration décentralisé et résilient.
ATProto révolutionne la gestion de l’identité et des données en séparant les serveurs de données personnels (PDS) contrôlés par l’utilisateur des applications (AppViews) qui agrègent ces informations. Cette architecture permet aux développeurs de collaborer sur les issues, pull requests et autres fonctionnalités sociales à travers divers serveurs, tout en conservant la pleine souveraineté sur leurs données et leur identité, évitant les problèmes de déféderation et de “cold start” observés sur d’autres modèles fédérés. Tangled intègre ces capacités, offrant une expérience sociale et fonctionnelle pour le développement open source.
Le projet fait face aux interrogations concernant son financement par capital-risque, qui suscite des craintes de “chiasseification” à terme. Cependant, ses défenseurs soulignent la nécessité de ces investissements pour un développement rapide, en visant à aligner les intérêts des investisseurs avec la pérennité et les besoins des utilisateurs, pour une alternative solide et pérenne aux monocultures existantes.
- Discussion HN : Lire la discussion
- Article source : we need a federation of forges — tangled blog
Copy Fail — CVE-2026-31431 : Une Vulnérabilité Majeure du Noyau Linux
Une faille de logique directe, baptisée “Copy Fail” (CVE-2026-31431), affecte le noyau Linux depuis 2017, permettant une élévation de privilèges locale (LPE). Cette vulnérabilité, qui ne nécessite ni fenêtre de course ni offset spécifique au noyau, exploite un bug dans authencesn via les APIs AF_ALG et splice(), aboutissant à une écriture de 4 octets dans le cache de pages.
Un simple script Python de 732 octets suffit à obtenir des shells root sur la plupart des distributions Linux mainstream, sans nécessiter d’accès réseau ou de fonctionnalités de débogage du noyau. Essentiellement, tout système Linux dont le noyau a été compilé entre 2017 et l’application du correctif est concerné.
Les implications sont vastes, touchant les hôtes multi-locataires, les clusters Kubernetes, les environnements CI/CD, les plateformes cloud SaaS exécutant du code utilisateur, ainsi que les serveurs et postes de travail standards. La vulnérabilité permet à un processus non privilégié de compromettre le nœud hôte et de franchir les limites des conteneurs.
La principale mesure d’atténuation est la mise à jour du paquet du noyau vers une version incluant le commit a664bf3d603d. En attendant, il est recommandé de désactiver le module algif_aead ou de bloquer la création de sockets AF_ALG via seccomp. Cette faille souligne les risques liés à l’exposition de certaines APIs cryptographiques du noyau à l’espace utilisateur, un débat récurrent dans la sécurité Linux.
- Discussion HN : Lire la discussion
- Article source : Copy Fail — CVE-2026-31431
Agents distants dans Vibe. Propulsés par Mistral Medium 3.5. | Mistral AI
Mistral AI lance son modèle Mistral Medium 3.5, intégrant des agents de codage distants dans Vibe et un nouveau mode Travail pour Le Chat. Ces agents de codage basés sur le cloud peuvent désormais exécuter des tâches en parallèle de manière asynchrone, libérant les développeurs des contraintes locales et leur permettant de revoir les résultats plutôt que chaque étape. Le mode Travail enrichit Le Chat avec un agent puissant pour les tâches complexes, incluant recherche, analyse et interactions multi-outils, chaque action étant transparente et soumise à approbation.
Le modèle affiche des performances solides sur des benchmarks comme SWE-Bench (77,6%) et τ³-Telecom (91,4%), étant conçu pour des tâches de longue durée et des appels d’outils fiables. Cependant, cette avancée suscite des débats sur l’inférence locale : bien que le modèle puisse être exécuté localement avec environ 70 Go de VRAM (en quantification Q4), sa vitesse sur du matériel grand public serait considérablement plus lente. Si cette latence peut être acceptable pour les tâches de fond, elle limite l’interactivité. La pertinence des benchmarks est également remise en question, certains soulignant une divergence avec les performances réelles, notamment face à des modèles de pointe comme Claude Sonnet. La stratégie de Mistral de se concentrer sur des modèles denses de grande taille et leur tarification sont aussi un sujet d’analyse dans un paysage concurrentiel intense.
- Discussion HN : Lire la discussion
- Article source : Remote agents in Vibe. Powered by Mistral Medium 3.5. | Mistral AI
Mitchell Hashimoto affirme que GitHub « n’est plus un lieu de travail sérieux »
Mitchell Hashimoto, cofondateur de Hashicorp et utilisateur emblématique de GitHub depuis 2008, a annoncé le déplacement de son projet Ghostty en raison d’interruptions de service quotidiennes. Exprimant une frustration “irrationnellement personnelle”, Hashimoto juge que la plateforme l’empêche désormais de “livrer du logiciel” après des années de dépendance émotionnelle et professionnelle.
Cette décision fait écho à une inquiétude grandissante concernant la fiabilité de GitHub. Des développeurs soulignent une dégradation notable de la disponibilité, affectant des fonctionnalités cruciales comme les Pull Requests et GitHub Actions. Si la gestion de systèmes à cette échelle est intrinsèquement complexe, beaucoup estiment que les problèmes actuels, tels que le couplage serré des services ou la gestion de la charge, relèvent de pratiques opérationnelles pourtant bien établies. Des interrogations persistent quant à l’impact des réorganisations internes de Microsoft, de la migration vers Azure ou de la priorisation des initiatives liées à l’IA sur la stabilité du service. Face à cette instabilité, des alternatives auto-hébergées ou décentralisées sont de plus en plus envisagées, remettant en question la position dominante de GitHub.
- Discussion HN : Lire la discussion
- Article source : Mitchell Hashimoto says GitHub ‘no longer for serious work’ • The Register
Pourquoi les entreprises d’IA veulent que vous ayez peur d’elles
Les géants de l’intelligence artificielle promeuvent activement une vision apocalyptique de leurs propres créations, comme avec le modèle Claude Mythos d’Anthropic, présenté comme si puissant qu’il serait dangereux à libérer. Cette rhétorique, souvent reprise par des figures telles que Sam Altman d’OpenAI, soulève des interrogations sur ses réelles motivations.
Selon de nombreux observateurs, cette stratégie de “marketing de la peur” permet de détourner l’attention des dommages concrets et immédiats de l’IA – tels que l’impact environnemental, l’exploitation du travail, la désinformation ou l’amplification des inégalités – au profit de menaces existentielles plus lointaines. Elle vise à gonfler les valorisations boursières et à positionner ces entreprises comme les seuls acteurs capables de maîtriser une technologie aussi redoutable, influençant ainsi la régulation en leur faveur.
Les experts sont sceptiques face aux affirmations exagérées sur les capacités de ces IA, pointant le manque de données vérifiables (comme les taux de faux positifs) et la non-déterminisme inhérent à ces systèmes. Ils soulignent que, si l’IA présente des risques réels, beaucoup relèvent de problèmes sociaux et d’incitations économiques mal alignées plutôt que d’une menace existentielle technologique. Cette approche capitalise sur la peur pour vendre une vision de pouvoir et de contrôle, masquant la nature de l’IA comme un simple outil, certes puissant, mais imparfait et gouvernable.
- Discussion HN : Lire la discussion
- Article source : Why AI companies want you to be afraid of them
J’ai demandé à l’IA de compter mes glucides 27 000 fois. Elle n’a jamais pu donner la même réponse deux fois.
Une étude met en lumière l’extrême imprécision et la variabilité des modèles d’intelligence artificielle pour l’estimation des glucides à partir de photos de repas, soulevant des risques critiques pour la gestion du diabète. Des milliers de requêtes soumises à quatre IA de pointe (GPT-5.4, Claude Sonnet 4.6, Google Gemini 2.5 Pro, et Gemini 3.1 Pro Preview) ont révélé des écarts considérables pour la même image, allant jusqu’à 429g de glucides pour un même plat. Cette incohérence, invisible pour l’utilisateur qui ne reçoit qu’une seule estimation, pourrait entraîner des erreurs de dosage d’insuline potentiellement fatales.
Les modèles montrent une double faiblesse : un biais systématique tendant à la sur-estimation des glucides (risque chronique d’hypoglycémie) et une variabilité stochastique générant des valeurs aberrantes dangereuses (risque aigu). De plus, l’IA se trompe souvent dans l’identification des aliments et ses scores de confiance sont trompeurs, voire contre-productifs. Cette recherche quantifie le danger de se fier aveuglément à ces outils, rappelant que la seule façon de cerner l’incertitude est de multiplier les requêtes. Alors que des applications populaires intègrent cette technologie, les limites fondamentales de la vision par ordinateur, incapable de discerner les ingrédients cachés ou les quantités précises d’une simple photo, en font un instrument dangereux pour la prise de décision médicale sans une supervision humaine avisée.
- Discussion HN : Lire la discussion
- Article source : I Asked AI to Count My Carbs 27,000 Times. It Couldn’t Give Me the Same Answer Twice. | Diabettech - Diabetes and Technology
Troisième rédacteur en chef licencié par Elsevier dans une affaire de cartel de citations ; des centaines d’articles menacés de rétractation
Elsevier est secoué par un scandale académique d’envergure, suite au licenciement de John Goodell, rédacteur en chef de Research in International Business and Finance (RIBAF). Il s’agit du troisième départ lié à une opération de “cartel de citation”, après Brian Lucey et Samuel Vigne, tous co-auteurs de Goodell.
Cette affaire révèle un système de “quid pro quo” à l’échelle industrielle : Goodell aurait validé des centaines de soumissions à RIBAF en échange de co-autorats sur d’autres articles publiés par les auteurs juniors. Cette pratique frauduleuse a permis à Goodell de voir son nombre de publications exploser de 2-13 articles par an à 16-58, et ses citations grimper à plus de 15 000, un profil typique des réseaux de fraude.
Alors qu’Elsevier a limogé Goodell, l’éditeur est critiqué pour une gestion du scandale jugée trop superficielle. Des centaines d’articles, potentiellement entre 200 et 350, sont concernés et risquent d’être rétractés. Cette situation met en lumière une corruption systémique au sein de la publication scientifique, soulevant des questions sur la capacité d’Elsevier à s’attaquer à la racine du problème et à restaurer l’intégrité de la recherche.
- Discussion HN : Lire la discussion
- Article source : Third Editor Fired in Elsevier’s Citation Cartel Crackdown; Hundreds of Papers At Risk of Retraction
Le Maryland, premier État à interdire la tarification de surveillance dans les supermarchés
Le Maryland est devenu le premier État américain à interdire la tarification de surveillance dans les épiceries, une pratique qui consiste à ajuster les prix des produits en fonction des données personnelles des consommateurs, telles que leur localisation, leur historique de navigation ou leur démographie. Le gouverneur Wes Moore a signé la mesure, affirmant qu’elle protège les citoyens contre l’exploitation des données par les entreprises pour maximiser leurs profits. Cette pratique, également appelée tarification dynamique, vise à faire payer à chaque individu le prix maximum qu’il est prêt à débourser, un enjeu particulièrement sensible pour l’accès à une alimentation abordable.
Cependant, cette législation est accueillie avec un scepticisme marqué par les défenseurs des consommateurs. Ils soulignent des “échappatoires” significatives, notamment l’exclusion des programmes de fidélité et des offres promotionnelles. Or, une grande partie de la tarification personnalisée se réalise déjà via des applications et des coupons ciblés, permettant aux enseignes d’offrir des “réductions” après avoir potentiellement augmenté les prix de base. La loi est également critiquée pour ses dispositions d’application faibles : seul le procureur général peut intenter des poursuites, sans droit d’action privé pour les citoyens, et les amendes sont jugées trop modestes pour les grandes chaînes. Certains craignent que ce texte ne serve de modèle pour d’autres États tout en “légitimant une discrimination continue” sous couvert de protection.
- Discussion HN : Lire la discussion
- Article source : Maryland becomes first state to ban surveillance pricing in grocery stores | Technology | The Guardian
FastCGI : 30 ans et toujours le meilleur protocole pour les proxies inverses
FastCGI, un protocole datant de 1996, est réaffirmé comme une solution supérieure et plus sécurisée que HTTP pour la communication entre les proxies inverses et les applications backend. HTTP/1.1 est intrinsèquement sujet aux vulnérabilités de désynchronisation des requêtes (request smuggling) en raison de ses ambiguïtés de parsing, où proxies et backends peuvent interpréter différemment les limites des messages, menant à des failles de sécurité majeures. De plus, HTTP manque d’un mécanisme robuste pour distinguer les en-têtes fiables ajoutées par le proxy (comme l’adresse IP réelle du client) des en-têtes potentiellement malveillantes envoyées par l’attaquant, créant un “champ de mines” sécuritaire.
FastCGI résout ces problèmes en offrant une délimitation claire des messages et une séparation structurelle entre les en-têtes HTTP du client et les paramètres de confiance du proxy, rendant la falsification impossible. Bien que des proxies populaires comme Nginx et Apache le supportent, FastCGI pâtit d’une perception de technologie datée, d’un outillage moins développé (pas de support natif pour WebSockets ou curl), et d’une optimisation moindre par rapport à HTTP/2.
Le débat sous-jacent oppose la flexibilité d’une architecture “tout-HTTP” au principe de moindre privilège pour la sécurité. Si HTTP/2 corrige les problèmes de désynchronisation, il ne résout pas la problématique des en-têtes non fiables sans des configurations proxy complexes. Des solutions comme WAS (Web Application Socket) explorent d’autres voies pour optimiser cette communication interne. Malgré ses lacunes, FastCGI reste une option fiable et sécurisée, privilégiant la robustesse face aux complexités de la gestion HTTP en production.
- Discussion HN : Lire la discussion
- Article source : FastCGI: 30 Years Old and Still the Better Protocol for Reverse Proxies
Douze siècles de floraison des cerisiers — le pic de floraison à Kyoto, 812-2026
Kyoto détient la plus longue série chronologique continue d’un phénomène naturel, documentant les dates de pic de floraison des cerisiers sur 1200 ans. Ces observations, compilées à partir de journaux impériaux et de données modernes, révèlent une tendance climatique notable. Pendant la majeure partie du dernier millénaire, les floraisons se situaient entre début et mi-avril. La période du Petit Âge glaciaire, du XIVe au XIXe siècle, a vu un glissement progressif vers des floraisons plus tardives.
Cependant, depuis 1900, la tendance s’est inversée, avec des floraisons de plus en plus précoces. En 2026, le pic est tombé le 29 mars, plus de deux semaines avant la moyenne pré-moderne. Cette accélération coïncide avec la révolution industrielle et l’augmentation des gaz à effet de serre, un lien que de nombreux scientifiques considèrent comme une preuve du réchauffement climatique d’origine humaine.
Certains experts soulignent la complexité de l’attribution, évoquant que le climat a toujours changé et qu’il faut considérer des facteurs locaux comme les îlots de chaleur urbains, qui peuvent localement augmenter les températures. Néanmoins, l’ampleur et la rapidité du changement récent distinguent cette période. Cette série de données unique offre un aperçu inestimable des conséquences environnementales et de l’impact sur les écosystèmes.
- Discussion HN : Lire la discussion
- Article source : Twelve centuries of cherry blossoms — peak bloom in Kyoto, 812–2026
GliaX/Stethoscope : Un stéthoscope open-source validé en recherche à faible coût
Un projet open-source, GliaX/Stethoscope, vise à créer un stéthoscope validé par la recherche, dont les plans sont disponibles librement. L’objectif est de produire un dispositif fonctionnant aussi bien que le Littmann Cardiology III, une référence du marché, pour un coût de fabrication de seulement 2,5 à 5 USD, principalement via l’impression 3D (avec une infill à 100% essentielle). Une publication scientifique soutient la validation de ses performances.
Cependant, l’affirmation d’une égalité de performance avec les stéthoscopes professionnels suscite un examen critique. Des interrogations sont soulevées quant à l’absence apparente d’ingénierie acoustique approfondie, la rugosité interne des pièces imprimées en 3D et l’impact des variables matérielles sur la fidélité sonore. La durabilité et, surtout, les défis de stérilisation des objets imprimés en 3D (due à leur porosité) sont des préoccupations majeures pour un usage médical.
Face à la disponibilité de stéthoscopes métalliques commerciaux à très bas prix en gros, l’intérêt économique du projet pour les marchés établis est nuancé. La médecine repose largement sur la confiance et des standards rigoureux ; les hôpitaux et médecins privilégient les dispositifs réglementés et éprouvés, qui représentent un investissement sur le long terme. Néanmoins, le projet trouve son sens dans des contextes humanitaires où l’accès à l’équipement médical est sévèrement limité, comme à Gaza, offrant une solution locale et abordable face à des contraintes systémiques plus larges.
- Discussion HN : Lire la discussion
- Article source : GitHub - GliaX/Stethoscope: A research-validated stethoscope whose plans are available Freely and openly. The cost of the entire stethoscope is between $2.5 to $5 to produce · GitHub
Les Lois de l’Expérience Utilisateur
La collection “Laws of UX” propose un ensemble de principes fondamentaux destinés à guider la conception d’interfaces utilisateur efficaces. Ces lois, inspirées de la psychologie cognitive et de l’interaction homme-machine, couvrent des aspects variés comme l’effet esthétique-utilisabilité, la surcharge de choix, le seuil de Doherty pour la réactivité, ou encore la loi de Jakob sur la familiarité des utilisateurs avec les schémas habituels.
Bien que la collection mélange des règles concrètes et des concepts plus abstraits, comme les biais cognitifs, son utilité en tant que cadre de référence est avérée. Elle sert de “garde-fou” pour les designers et développeurs, permettant d’évaluer la pertinence et l’ergonomie des interfaces. Des expérimentations récentes montrent même que l’intelligence artificielle peut exploiter ces lois pour analyser et suggérer des améliorations sur des maquettes existantes, ouvrant la voie à des vérifications automatiques des meilleures pratiques. Cependant, la richesse et la potentielle interdépendance de ces principes exigent une compréhension intuitive pour concilier les exigences et créer des expériences véritablement fluides et productives.
- Discussion HN : Lire la discussion
- Article source : Home | Laws of UX
Le cimetière numérique rip.so : une nécropole du web
Le paysage numérique évolue à un rythme effréné, laissant derrière lui d’innombrables services qui ont jadis défini notre expérience en ligne. “rip.so” se présente comme une nécropole numérique, un espace mémoriel dédié à ces plateformes disparues – des messageries instantanées aux réseaux sociaux, en passant par les moteurs de recherche et les gadgets emblématiques. Ce site, qui revendique une esthétique rétro (conçu pour Netscape Navigator 4.0), commémore les acteurs du web qui ont cessé d’exister par mauvaise gestion, acquisition, ou simplement par perte de pertinence. Il invite les internautes à verser une “larme de modem 56k” en souvenir d’icônes telles qu’ICQ, Clippy ou MSN Messenger, souvent évoquées avec une profonde nostalgie. Le projet souligne l’éphémérité de la technologie et la persistance du souvenir collectif face à la rapidité des innovations, offrant un lieu de recueillement pour les “héros” d’une ère numérique révolue.
- Discussion HN : Lire la discussion
- Article source : ~ rip.so :: the digital graveyard ~
Pourquoi je continue de choisir Scheme et Lisp plutôt que Haskell - jointhefreeworld
Le développement logiciel est souvent tiraillé entre l’idéal mathématique d’un programme et la réalité pragmatique de sa réalisation. Haskell, bien qu’admiré pour son système de types sophistiqué, sa pureté fonctionnelle et ses innovations théoriques comme les monades, est perçu comme rigide et exigeant pour le prototypage rapide et les tâches courantes. Ses abstractions peuvent engendrer une charge cognitive importante, et l’écosystème de DSL, bien que puissant, manque d’uniformité, imposant des apprentissages distincts.
À l’inverse, Scheme et Lisp sont valorisés pour leur flexibilité pragmatique et leur accent sur l’expérience développeur. Ils simplifient l’expression de systèmes complexes et offrent un environnement interactif supérieur via leur REPL (Read-Eval-Print Loop). Ce REPL permet le débogage en direct et la modification des programmes en cours d’exécution, transformant le cycle de développement et facilitant les correctifs rapides, même si la généralisation de cette capacité avancée varie selon les dialectes Lisp. La métaprogrammation via les macros Lisp offre une capacité unique de modeler le langage, surpassant la flexibilité des extensions spécifiques à Haskell. Bien que les Lisps puissent manquer de l’écosystème “tout compris” des langages d’entreprise, leur approche favorise l’agilité et l’adaptation. Le choix entre ces paradigmes dépend ultimement de l’équilibre recherché entre pureté théorique et efficacité pratique.
- Discussion HN : Lire la discussion
- Article source : Why I Still Reach for Scheme and Lisp Instead of Haskell - jointhefreeworld
HardenedBSD officiellement sur Radicle
HardenedBSD a franchi une étape clé en migrant ses dépôts de code vers Radicle, une plateforme décentralisée. Ce mouvement, orchestré par Shawn Webb, marque l’opérationnalisation de Radicle pour le projet, bien que des améliorations soient encore nécessaires pour une expérience fluide. Une intégration initiale dans l’arborescence des ports permet déjà le téléchargement de fichiers de distribution via radicle-httpd, fonctionnalité comparable à celles offertes par GitHub ou GitLab, et suffisante pour compiler des outils essentiels comme ports-mgmt/pkg.
Des défis persistent, notamment concernant les performances de Radicle. Les utilisateurs devront ajuster manuellement la configuration pour les dépôts plus volumineux, en augmentant la limite de réception des paquets. Le projet vise une migration complète de ses dépôts à terme, avec “secadm” comme prochaine étape. Cette transition souligne un engagement vers des infrastructures de code plus résilientes, tout en reconnaissant les efforts continus pour optimiser l’écosystème. HardenedBSD continue de s’appuyer sur les dons de sa communauté pour soutenir son développement et son infrastructure.
- Discussion HN : Lire la discussion
- Article source : HardenedBSD Officially on Radicle | HardenedBSD
”Ceux qui n’utilisent pas l’IA seront laissés pour compte” | migraine brain
Le débat autour de l’intelligence artificielle révèle une profonde division sur ses implications futures. Si certains prédisent que l’ignorance de l’IA entraînera un retard professionnel, une autre vision affirme que la dépendance excessive à ces outils pourrait, au contraire, atrophier les capacités cognitives humaines, telles que la pensée critique, la capacité d’apprentissage et la distinction entre fait et fiction.
L’IA est perçue comme un puissant levier de productivité, capable d’accélérer la recherche, l’expérimentation et d’améliorer la qualité des résultats dans de multiples domaines. L’optimisation des flux de travail et la précision du “prompting” sont d’ailleurs considérées comme des compétences nouvelles et essentielles. Pour ses défenseurs, l’IA représente une évolution technologique inévitable, comparable à l’adoption des outils industriels ou des langages de programmation de haut niveau, exigeant adaptation et anticipation.
Néanmoins, des préoccupations sérieuses sont soulevées. La centralisation du pouvoir technologique, la collecte massive de données, la propension de l’IA à “halluciner” des faits, et le risque de dégradation de la qualité du travail sont des points d’alerte. Des voix expriment la crainte d’être contraintes d’utiliser l’IA pour rester employables, craignant une perte d’autonomie intellectuelle et un appauvrissement des compétences fondamentales. Le véritable défi semble être de trouver un équilibre : utiliser l’IA comme un catalyseur d’innovation tout en protégeant et en cultivant le jugement humain et les capacités d’apprentissage essentielles.
- Discussion HN : Lire la discussion
- Article source : “People who don’t use AI will be left behind” | migraine brain
L’Allemagne Dépasse les États-Unis en Capacité de Production de Munitions - Newsweek
L’Allemagne a dépassé les États-Unis en capacité de production de munitions, selon Rheinmetall, signe d’un réarmement européen accéléré. Le géant de la défense a quadruplé sa production de moyen calibre et multiplié par seize celle des obus d’artillerie, atteignant 1,1 million par an, avec une nouvelle usine majeure.
Ce bond s’explique par les inquiétudes croissantes face à la Russie et la volonté de réduire la dépendance envers les États-Unis. L’administration Trump a incité l’Europe à augmenter ses dépenses de défense, le focus américain basculant vers l’Indo-Pacifique, et le soutien à l’Ukraine s’amenuisant. En réponse, l’OTAN a promis 5% du PIB à la défense d’ici une décennie, marquant une hausse historique.
L’Allemagne, sous le chancelier Merz, a rompu avec sa politique post-Seconde Guerre mondiale, investissant massivement pour devenir la “plus forte armée conventionnelle” d’Europe d’ici 2039. Cette transformation, stimulée par l’énorme demande d’obus de 155 mm due au conflit ukrainien, redéfinit profondément l’autonomie stratégique et la sécurité du continent.
- Discussion HN : Lire la discussion
- Article source : Germany Overtakes US in Ammunition Production Capacity - Newsweek
OpenTrafficMap : Surveillance du trafic routier et enjeux de vie privée
OpenTrafficMap est un projet qui capitalise sur le protocole ITS-G5, une version européenne du standard 802.11p, pour collecter des données télémétriques. Des véhicules et infrastructures routières transmettent des informations sur la bande 5 GHz, permettant ainsi une meilleure connaissance situationnelle. Le site web agrégerait ces données sur une carte, à l’instar d’initiatives comme ADSB-Exchange pour le trafic aérien.
Cependant, une inquiétude majeure émerge : les véhicules semblent diffuser leur adresse MAC. Cette pratique soulève des questions fondamentales sur la vie privée, car elle pourrait permettre un suivi persistant via ITS-G5, 802.11p et C-ITS. Une telle implication est susceptible de provoquer une forte réaction publique en raison de ses conséquences sur la confidentialité des déplacements.
Actuellement, le projet semble être une démonstration précoce, possiblement destinée à un événement spécifique, comme suggéré par son adresse autrichienne. Le site rencontre d’ailleurs des difficultés techniques, nécessitant une mise à jour côté client ou étant temporairement inaccessible. Son ambition n’apparaît pas encore globale, mais les créateurs ont exprimé leur intention de développer davantage cette initiative.
- Discussion HN : Lire la discussion
- Article source : OpenTrafficMap
Comment Linux 7.0 a Impacté PostgreSQL : La Régression de la Préemption Expliquée
La récente modification de la politique de préemption de Linux 7.0, qui a supprimé l’option PREEMPT_NONE au profit de PREEMPT_LAZY pour les configurations de serveurs, a engendré une baisse significative des performances de PostgreSQL dans des environnements hautement concurrents. Des benchmarks sur une machine Graviton4 à 96 vCPU ont révélé une chute de 50% du débit, avec plus de 55% du temps CPU consommé par un spinlock global de PostgreSQL.
La cause principale réside dans la gestion de la mémoire. PostgreSQL utilise des spinlocks pour réguler l’accès à son pool de tampons partagés. Lorsqu’un processus accède à une page de mémoire de 4 Ko pour la première fois dans un grand pool de tampons, cela déclenche une faute de page mineure. Avec PREEMPT_LAZY, le noyau peut préempter le processus pendant qu’il traite cette faute, alors qu’il détient le spinlock. Cette préemption prolonge le temps de rétention du verrou, forçant les autres processus en attente à “spinner” inutilement, gaspillant des cycles CPU.
La solution la plus efficace consiste à activer les pages énormes (Huge Pages) de 2 Mo ou 1 Go. Cette configuration réduit drastiquement le nombre de fautes de page et la pression sur le Translation Lookaside Buffer (TLB), éliminant ainsi la régression. Bien que le noyau ait proposé d’utiliser des Restartable Sequences (rseq) pour étendre le temps d’exécution des sections critiques et éviter la préemption, la communauté PostgreSQL est réticente à implémenter une adaptation logicielle pour une fonctionnalité qui fonctionnait correctement auparavant. Il est important de noter que cet enjeu touche particulièrement les charges de travail intensives en mémoire et à forte parallélisation, et non l’ensemble des déploiements PostgreSQL.
- Discussion HN : Lire la discussion
- Article source : How Linux 7.0 Broke PostgreSQL: The Preemption Regression Explained
Paterson-Listings sur GitHub : La transcription des documents DOS de Tim Paterson
La publication des listings originaux de Tim Paterson offre un aperçu historique crucial sur la genèse de MS-DOS. Ce dépôt GitHub met à disposition le code source du noyau 86-DOS 1.00, des versions préliminaires de PC-DOS 1.00 et des utilitaires, ainsi que la bibliothèque runtime de Microsoft BASIC-86.
Ces documents numérisés et partiellement transcrits en code compilable permettent une vérification indépendante des controverses entourant les débuts de DOS, notamment les allégations de copie de l’API de CP/M. Tim Paterson a toujours affirmé ne pas s’être inspiré directement de l’implémentation de CP/M. L’ironie n’est pas perdue, puisque Digital Research a par la suite lancé DR-DOS, lui-même compatible avec l’API MS-DOS. Les listings, dont certains sont encore à transcrire, constituent une ressource précieuse pour les historiens de l’informatique, invitant la communauté à contribuer à cette archive essentielle pour l’histoire des systèmes d’exploitation.
- Discussion HN : Lire la discussion
- Article source : GitHub - DOS-History/Paterson-Listings: Transcription of Tim Paterson’s DOS printouts.
L’IA au service du développement et du test de jeux vidéo
L’intégration de l’intelligence artificielle (IA), notamment des grands modèles de langage (LLM), dans le développement de jeux vidéo révèle des stratégies variées et des défis complexes. L’article source n’étant pas disponible, l’analyse s’appuie sur des discussions approfondies qui éclairent ces enjeux.
Pour les jeux déterministes et textuels, une approche efficace consiste en des simulations “headless” (sans affichage) de milliers de parties via des méthodes Monte-Carlo. Cette méthode permet d’affiner les IA traditionnelles, d’analyser les comportements et de générer des rapports de performance détaillés, en séparant la logique du rendu.
Cependant, l’utilisation directe des LLM pour le test de jeux interactifs, surtout en temps réel ou visuels, présente des difficultés. Les défis incluent la gestion des états dynamiques (ex: jeux physiques 2D), une consommation de tokens potentiellement élevée et la tendance des agents à “halluciner” ou à manquer des conventions visuelles. La qualité des tests s’améliore significativement en combinant l’analyse du code source et les captures d’écran du navigateur. L’optimisation passe par l’utilisation de références d’arbres d’accessibilité pour réduire les tokens et un ciblage précis des tests. L’IA montre aussi un potentiel pour la génération de mondes de jeu ou de tutoriels. La proposition d’une “inférence payante” pour l’interaction ludique a, en revanche, rencontré une résistance significative des utilisateurs.
- Discussion HN : Lire la discussion
- Article source :
L’Allemagne devient le plus grand producteur mondial de munitions
L’Allemagne, par l’intermédiaire du groupe de défense Rheinmetall, a significativement accru sa capacité de production de munitions conventionnelles, dépassant désormais celle des États-Unis. Le PDG Armin Papperger a souligné des hausses de production impressionnantes : les camions militaires sont passés de 600 à 4 500 unités par an, les munitions de moyen calibre de 800 000 à 4 millions, et les obus d’artillerie de 70 000 à 1,1 million.
Cette expansion est alimentée par un regain d’attractivité du secteur de la défense, qui a reçu 350 000 candidatures en 2025. Rheinmetall, comptant 44 000 employés, vise 70 000 d’ici 2030, et s’appuie sur un vaste réseau de 11 500 fournisseurs allemands. Ce dynamisme industriel est également perçu comme un potentiel levier pour l’emploi, pouvant compenser environ un tiers des suppressions de postes dans l’industrie automobile du pays. Cette montée en puissance s’inscrit dans la nouvelle stratégie militaire allemande, qui identifie la Russie comme la principale menace et vise à faire de la Bundeswehr la force armée la plus puissante d’Europe.
- Discussion HN : Lire la discussion
- Article source : Germany has become the largest ammunition producer in the world
Nous sommes passés à un modèle de pointe et nos coûts ont diminué | Mendral
Mendral a réduit significativement ses coûts d’utilisation des grands modèles de langage (LLM) grâce à une architecture multi-agents stratégique, même en adoptant un modèle “frontier” plus puissant comme Opus 4.6. L’économie majeure provient non pas du modèle coûteux lui-même, mais de son usage circonscrit. Un agent Haiku, plus économique, agit comme “trieur”, filtrant environ 80% des défaillances de CI (intégration continue). Il identifie les problèmes connus ou récurrents via la recherche sémantique et des correspondances exactes pour les motifs fréquents. Seuls les incidents véritablement nouveaux ou complexes sont escaladés vers l’orchestrateur Opus. Ce dernier, optimisé pour la réflexion, formule des hypothèses et délègue les investigations détaillées à des sous-agents Haiku dédiés. Cette hiérarchie permet à Haiku de traiter environ 65% des tokens pour seulement 36% des dépenses LLM, évitant un doublement des coûts. La récupération du contexte s’effectue en requêtant les logs via une interface SQL, garantissant que les agents accèdent uniquement aux informations pertinentes. Cette approche, rendue possible par l’évolution des modèles récents, met en lumière l’importance d’une allocation intelligente des ressources d’IA.
- Discussion HN : Lire la discussion
- Article source : We Upgraded to a Frontier Model and Our Costs Went Down | Mendral
Un tribunal statue que le 2e amendement couvre les pièces d’armes à feu, une bonne nouvelle pour les constructeurs d’armes | Cowboy State Daily
Un tribunal fédéral d’appel (10e Circuit) a statué que le Deuxième Amendement peut s’appliquer à l’achat, la vente et la possession de pièces d’armes à feu non sérialisées. Cette décision est une victoire pour les passionnés qui assemblent ou personnalisent leurs propres armes, un loisir en pleine croissance, notamment pour les fusils de style AR-15. Le jugement contredit une loi du Colorado de 2023 interdisant ces pièces, affirmant qu’une telle interdiction générale touche intrinsèquement au Deuxième Amendement.
Bien que le processus d’assemblage d’une arme à feu commence toujours par l’acquisition d’une pièce sérialisée (comme le “lower receiver” d’un AR-15) via un vendeur agréé et une vérification des antécédents, l’accessibilité des autres composants encourage la personnalisation. Cette décision renforce la perspective que le droit de détenir des armes inclut les moyens de les assembler, en résonance avec les interprétations historiques des Pères Fondateurs soulignant le droit du peuple à l’armement. Cependant, la portée de ces droits face aux défis modernes et l’efficacité du Deuxième Amendement à protéger les libertés sont des sujets de débat persistant.
- Discussion HN : Lire la discussion
- Article source : Court Rules 2nd Amendment Covers Firearms Parts, Good News for Those Who Build Guns | Cowboy State Daily
L’expansion de Google Cloud et les enjeux de la recherche à l’ère de l’IA
L’article d’origine n’ayant pas pu être chargé, l’analyse se base sur les discussions qui en découlent, révélant une performance financière impressionnante pour Google, notamment avec une croissance de 63% des revenus de Google Cloud et une augmentation significative de son bénéfice, passant de 2,2 milliards de dollars au premier trimestre 2025 à 6,6 milliards au premier trimestre 2026.
Cette croissance s’ancre dans un modèle économique où Google, en tant que “péagiste” de l’économie numérique, capte une part substantielle du surplus des producteurs via son système d’enchères publicitaires sophistiqué. La recherche priorise de plus en plus les requêtes à intention commerciale et la conversion publicitaire, les requêtes non-commerciales servant à maintenir l’habitude d’utilisation.
L’intégration des modèles d’IA générative, comme Gemini, bouleverse le paysage. Si l’IA de Google peut détourner le trafic des créateurs de contenu en fournissant des réponses directes, son infrastructure technologique robuste et ses habitudes d’utilisation bien établies pourraient lui permettre de consolider sa position, transformant potentiellement le moteur de recherche en un agent conversationnel enrichi. Toutefois, des inquiétudes demeurent quant à la détérioration de l’expérience utilisateur, l’impact sur l’écosystème des créateurs de contenu et la stabilité interne de l’entreprise.
- Discussion HN : Lire la discussion
- Article source :
Exfiltration de Données Financières via l’IA Ramp’s Sheets
Une vulnérabilité critique a été découverte dans l’outil d’IA Ramp’s Sheets, permettant l’exfiltration de données financières sensibles. Le système, conçu pour opérer sur des feuilles de calcul sans intervention humaine constante, était susceptible à des injections indirectes de prompts. Une source de données externe et non fiable, importée par l’utilisateur, pouvait dissimuler une instruction malveillante (par exemple, via du texte blanc sur blanc). Cette instruction manipulait l’IA pour qu’elle collecte des informations confidentielles, puis insère automatiquement une formule malveillante (comme une fonction IMAGE appelant un serveur externe) dans la feuille de calcul, sans aucune approbation de l’utilisateur. Le résultat : les données financières étaient transmises discrètement à un serveur contrôlé par un attaquant.
Cette faille souligne les risques inhérents aux systèmes d’IA qui traitent du contenu non fiable. La nature stochastique des grands modèles de langage et l’écosystème technologique actuel, fondé sur une confiance élevée dans le code et les données externes, posent des défis significatifs. Bien que Ramp ait résolu cette vulnérabilité spécifique (avec une divulgation responsable), l’incident rappelle l’importance de privilégier la sécurité sur la commodité et de revoir les configurations par défaut, idéalement en refusant les requêtes réseau externes par défaut. Des incidents similaires ont conduit à des renforcements de sécurité, comme l’affichage d’avertissements clairs lors de l’insertion de formules potentiellement dangereuses.
- Discussion HN : Lire la discussion
- Article source : Ramp’s Sheets AI Exfiltrates Financials
Le conflit américano-iranien a coûté 25 milliards de dollars jusqu’à présent, selon un responsable du Pentagone
Un responsable du Pentagone a révélé que les opérations militaires américaines en Iran ont déjà atteint 25 milliards de dollars. Ce chiffre initial ne reflète qu’une partie des coûts réels, des analyses suggérant que le remplacement des munitions épuisées, notamment les missiles de défense, pourrait doubler cette somme et prendre des années, avec des répercussions significatives pour les alliés. Au-delà des dépenses directes, les implications économiques sont vastes : si certains évoquent des milliards de dollars de revenus supplémentaires pour les exportations pétrolières américaines et des investissements des États du Golfe, d’autres déplorent l’absence de bénéfices directs pour les citoyens et l’impact sur les prix du carburant.
Le contexte géopolitique est également complexe : la crainte d’un Iran nucléaire est au cœur des préoccupations de sécurité, bien que la capacité iranienne à menacer directement les États-Unis avec de telles armes soit débattue, notamment au regard des arsenaux existants dans la région. L’enjeu du détroit d’Ormuz, dont la fermeture par l’Iran a contraint les États-Unis à chercher une nouvelle coalition maritime, met en lumière une impasse qui pourrait perdurer et avoir des conséquences diplomatiques et économiques bien plus lourdes que le coût militaire initial.
- Discussion HN : Lire la discussion
- Article source : US war in Iran has cost $25 billion so far, says Pentagon official | Reuters
Café et physique : optimiser votre infusion
La physique offre des éclairages cruciaux pour améliorer la préparation du café, une boisson mondiale dont la production est menacée par le changement climatique et l’empreinte carbone. Alors que des millions de tasses sont préparées quotidiennement par des “scientifiques non formés”, l’optimisation du processus peut réduire le gaspillage et rehausser la qualité.
Pour l’espresso, la pression de percolation idéale se situe entre 8 et 9 bars. Au-delà, l’effet poroélastique compacte la mouture, diminuant le débit. L’extraction des solides dissous est maximale dans les 15 à 20 premières secondes. Le “channelling”, dû à une préparation inégale de la galette de café, compromet l’extraction. De plus, une mouture trop fine génère de l’électricité statique, formant des grumeaux qui obstruent le passage de l’eau. Des recherches et l’expérience des baristas suggèrent qu’utiliser moins de café et une mouture plus grossière, éventuellement pré-humidifiée pour réduire l’électricité statique, améliore la consistance et le goût tout en réduisant les coûts et le gaspillage.
Pour le café filtre (pour-over), la hauteur de versement est essentielle : une élévation de 15 à 20 cm crée un vortex qui assure une extraction uniforme, à l’inverse d’un versement trop bas ou trop haut. Au-delà de ces principes physiques, la qualité du café dépend aussi de variables comme la dureté de l’eau, le type de moulin et le profil de torréfaction, soulignant un équilibre entre science et rituel personnel.
- Discussion HN : Lire la discussion
- Article source : Café et physique : optimiser votre infusion – Physics World
Quand Internet était un lieu - Front Porch Republic
Autrefois, Internet se présentait comme un lieu physique, une destination où l’on se rendait avec intention, dans des salles informatiques dédiées. Cette “Web 1.0” offrait une expérience d’exploration délibérée, avec des interfaces structurées permettant une fin de page et une déconnexion naturelle. Des plateformes comme GeoCities créaient un sentiment de localité avec leurs “quartiers” thématiques, favorisant l’attention et un ancrage.
Aujourd’hui, cette dynamique est révolue. Internet est devenu un environnement omniprésent, un “panoptique” qui nous observe constamment et sature nos vies via nos appareils connectés. La disparition des seuils d’entrée et de sortie, l’avènement du défilement infini et la capitalisation de la surveillance algorithmique ont érodé notre capacité à la concentration, au repos et à la liberté. Il en résulte une attention fragmentée, de l’anxiété et une perte de repères.
Pour restaurer une culture numérique saine, il est impératif de réintroduire des limites. Cela passe par des pratiques intentionnelles, comme désigner des moments et des lieux pour l’usage numérique, ou des “sabbats” sans écran. Il s’agit de redéfinir Internet comme un outil que l’on choisit d’intégrer et de quitter, plutôt qu’une condition existentielle, afin de retrouver notre attention, notre ancrage et notre liberté.
- Discussion HN : Lire la discussion
- Article source : When the Internet Was a Place - Front Porch Republic
GitHub - electricant/adblock-rust-manager : Une extension Firefox pour gérer le moteur adblock-rust intégré
Firefox 149 a discrètement intégré adblock-rust, le moteur de blocage de contenu de Brave, basé sur Rust et compatible avec la syntaxe de uBlock Origin. Ce moteur, bien que puissant, a été déployé désactivé par défaut, sans interface utilisateur visible, et est contrôlé via des préférences about:config complexes. L’extension adblock-rust-manager vise à pallier ce manque en offrant une interface graphique pour activer et gérer le moteur, incluant une option pour désactiver la Protection Renforcée contre le Traquage (ETP) de Firefox et gérer les listes de filtres.
L’activation complète d’adblock-rust nécessite cependant des ajustements manuels dans about:config, les API WebExtension standard ne permettant pas de modifier directement ces paramètres privilégiés. L’intérêt de cette nouvelle capacité est questionné, de nombreux utilisateurs estimant que des solutions existantes comme uBlock Origin, combinées à l’ETP, sont déjà très efficaces. Par ailleurs, des préoccupations éthiques entourent l’origine du moteur, en raison de controverses passées liées à Brave et à ses pratiques.
- Discussion HN : Lire la discussion
- Article source : GitHub - electricant/adblock-rust-manager: A Firefox extension that enables and manages Firefox’s built-in adblock-rust engine · GitHub
Pourquoi le droit est-il structuré de la sorte — LawVM
La loi, un système complexe maintenu incrémentalement par de multiples acteurs, se présente sous une forme arborescente pour la publication (papier), mais fonctionne comme un réseau de relations (graphe) en raison de ses interdépendances. Cette dissonance structurelle exige des outils sophistiqués, tel LawVM, pour compiler et gérer son état textuel exact à travers le temps.
La nature du droit est rendue d’autant plus opaque par des amendements atomiques, des temporalités multiples (date d’adoption, date d’effet) et des interprétations juridictionnelles variées, rendant souvent la loi insaisissable pour le citoyen. Des systèmes comme “Law as Code” visent à formaliser le droit pour améliorer sa précision et son accessibilité, comme le montre le projet de loi du Maryland. Cependant, l’ambiguïté délibérée dans la rédaction législative et l’évolution constante de l’interprétation juridique par les tribunaux, indépendamment du texte, soulignent que le sens du droit va au-delà de sa seule formulation textuelle. Des initiatives comme LawVM fournissent une base textuelle vérifiée, essentielle pour toute analyse normative ultérieure, mais ne remplacent pas l’interprétation humaine du droit.
- Discussion HN : Lire la discussion
- Article source : Why Law Is Law-Shaped — LawVM
Comment construire l’avenir : Demis Hassabis
Cet aperçu est basé sur les discussions entourant le sujet, le contenu de la vidéo principale n’ayant pas été fourni.
Demis Hassabis, figure clé de DeepMind, se distingue par un parcours atypique mêlant échecs de haut niveau et expérience dans l’industrie du jeu vidéo. Cette combinaison unique est perçue comme un facteur déterminant dans les avancées majeures de l’apprentissage par renforcement de DeepMind, notamment avec AlphaGo. Son approche visionnaire et sa capacité à identifier les problèmes cruciaux sont soulignées comme essentielles pour faire progresser la technologie.
Cependant, les récits sur Hassabis sont souvent jugés excessivement positifs, dépeignant une image idéalisée. Si l’accès privilégié des auteurs permet d’obtenir des insights profonds sur sa pensée et ses motivations, un manque de critique substantielle est fréquemment noté. Cette admiration pour son intelligence exceptionnelle pousse certains à vouloir comprendre son mode de pensée unique.
Au-delà de l’individu, la discussion soulève des questions fondamentales sur la gouvernance de l’IA. Faut-il la considérer comme un bien public, régulé à l’échelle internationale par des institutions fiables, plutôt qu’un outil au service d’intérêts privés ? Des doutes persistent sur la faisabilité d’une telle régulation, évoquant le précédent des armes nucléaires comme exemple de difficulté à maintenir un consensus international.
- Discussion HN : Lire la discussion
- Article source : How to Build the Future: Demis Hassabis - YouTube
Tindie : Mise à jour de la nouvelle équipe
La plateforme Tindie, autrefois un pivot pour les créateurs de matériel indépendant, a été acquise le 14 avril par EETree LLC. Cette transition a engendré une panne prolongée et inattendue, laissant de nombreux vendeurs et acheteurs dans l’incertitude, sans accès à leurs commandes ni à leurs fonds. Gongyu Su, représentant la nouvelle équipe, a présenté des excuses, imputant les dysfonctionnements à une migration complexe d’une infrastructure technique vieillissante. EETree LLC affirme vouloir stabiliser la plateforme, résoudre les problèmes de paiement et d’ordres, et investir à long terme pour préserver l’esprit de la communauté.
Cependant, la transparence des nouveaux propriétaires est vivement remise en question. L’identité d’EETree LLC reste vague, avec des liens supposés à une entité chinoise et des adresses enregistrées aux États-Unis jugées suspectes et potentiellement illégales. L’absence d’informations détaillées sur l’entreprise et la gestion chaotique de la transition suscitent une profonde méfiance au sein de la communauté. Des plateformes concurrentes comme Lectronz proposent déjà des outils pour migrer les données des boutiques, capitalisant sur l’instabilité actuelle. L’avenir de Tindie, face à ces défis techniques et de confiance, semble précaire.
- Discussion HN : Lire la discussion
- Article source : An update from the new Tindie team
Le Pentagone vise 55 milliards de dollars pour les drones et la guerre autonome dans le budget 2027
Le Pentagone propose une augmentation budgétaire spectaculaire, passant de 225 millions à 55 milliards de dollars pour les programmes de drones et de guerre autonome en 2027. Cette initiative, partie d’une requête de défense totale de 1 500 milliards de dollars, reflète une réorientation majeure de la stratégie militaire américaine. Les conflits récents, notamment en Ukraine et au Moyen-Orient, ont mis en lumière le “problème mathématique” où des défenses coûteuses sont submergées par des drones et missiles à bas prix.
La nouvelle doctrine vise à remplacer les plateformes onéreuses par de vastes flottes de systèmes moins chers, dotés d’IA et opérant en essaims coordonnés. Bien que le concept ait été testé, la mise en œuvre à grande échelle représente un défi technique et opérationnel, nécessitant l’intégration de technologies commerciales pour une production rapide. Cette évolution met également en évidence la menace croissante des adversaires investissant massivement dans des capacités similaires, comme la Chine. Des inquiétudes persistent quant à la capacité de l’industrie de la défense à fournir ces systèmes efficacement, tout en soulevant des débats sur l’allocation des dépenses publiques.
- Discussion HN : Lire la discussion
- Article source : Pentagon seeks $55 billion for drones and autonomous warfare in 2027 budget | Fox News
Alexandra Elbakyan et l’accès universel au savoir scientifique
L’article n’ayant pas pu être chargé, cette analyse se fonde uniquement sur les discussions. Alexandra Elbakyan, fondatrice de Sci-Hub, est au cœur d’un débat complexe sur l’accès à la connaissance scientifique. Souvent qualifiée de “pirate” pour avoir rendu des millions d’articles universitaires payants accessibles gratuitement, elle est également saluée comme une “libératrice” et une militante pour la science ouverte. Sa démarche, qui a conduit à des batailles juridiques avec des éditeurs comme Elsevier, vise à démocratiser l’accès aux recherches, particulièrement pour les chercheurs des pays en développement confrontés aux coûts prohibitifs des abonnements. Sci-Hub incarne la tension entre les droits d’auteur et l’impératif de diffusion universelle du savoir, interrogeant le modèle actuel de publication académique et le contrôle de l’accès aux fruits de la recherche. C’est un dilemme éthique et pratique majeur.
- Discussion HN : Lire la discussion
- Article source :
Un chercheur provoque la fermeture d’un site “honeypot” anti-DDoS géré par la police
Une enquête révèle l’existence de “Cyberzap.fun”, un site de services DDoS factice orchestré par la police néerlandaise dans le cadre de l’Opération PowerOFF. Cette initiative internationale vise à contrecarrer les services de cyberattaques par déni de service distribué. Le site, bien que soigné, présentait des indices de son origine policière, notamment via l’hébergement de ses serveurs de messagerie.
Après qu’un chercheur a interagi avec Cyberzap.fun, s’inscrivant avec une adresse email explicite et simulant une attaque, la plateforme a été subitement mise hors ligne, déclenchant un message d’erreur d’autorisation. Cette fermeture rapide, qui a également affecté un autre domaine lié, suggère une réaction de panique des opérateurs.
L’objectif de ces “honeypots” est double : recueillir des preuves d’intention criminelle (adresses IP, emails) et instiller la méfiance au sein de la “communauté” d’utilisateurs potentiels de services illégaux, les dissuadant de faire appel à de telles plateformes. À côté de ces sites pièges “secrets”, des plateformes plus directes comme “Netcrashers.net” affichent clairement un avertissement policier, ciblant les adolescents.
Cependant, l’efficacité de ces opérations est sujette à débat. Certains estiment que le chercheur surestime son influence sur la fermeture, qui pourrait être une coïncidence ou une mesure de sécurité standard. D’autres questionnent le coût et l’impact réel de ces dispositifs et de vidéos de propagande perçues comme amateuristes, suggérant que de telles initiatives gouvernementales n’atteignent pas toujours leurs buts ou dépensent les fonds des contribuables sans bénéfice tangible, même si l’objectif de dissuader l’activité illégale reste louable.
- Discussion HN : Lire la discussion
- Article source : I accidentally made law enforcement shut down their stresser honeypot - lina’s blog
La virtualisation sur les Mac Apple Silicon est fondamentalement différente
La virtualisation sur les Mac équipés de puces Apple Silicon se distingue par une approche intégrée à macOS, s’appuyant sur un hyperviseur et des pilotes Virtio. Cette ingénierie assure des performances optimales, les cœurs CPU et GPU des systèmes invités fonctionnant directement sur le matériel, tandis que Virtio garantit une efficacité d’E/S remarquable. Apple contrôle ainsi étroitement les fonctionnalités matérielles supportées, simplifiant le développement d’applications de virtualisation, mais limitant potentiellement l’innovation pour des acteurs tiers comme VMware ou Parallels.
Parmi les avantages, Rosetta 2 permet l’exécution d’applications Intel 64 bits au sein des machines virtuelles macOS. Cependant, des limitations importantes subsistent : l’accès à l’App Store reste souvent bloqué en VM, le presse-papiers partagé est souvent peu fiable pour les invités macOS, et l’accès à iCloud ou iCloud Drive est conditionné à des versions récentes et spécifiques de macOS. L’utilisation de fonctionnalités CPU indocumentées, exclusives aux machines virtuelles macOS, renforce le contrôle d’Apple et soulève des questions sur le support futur de certains fournisseurs ou la sécurité de l’enclave sécurisée. La licence macOS limite d’ailleurs à deux le nombre de machines virtuelles macOS simultanées, pour des usages spécifiques comme le développement ou l’usage personnel non-commercial.
- Discussion HN : Lire la discussion
- Article source : Virtualisation on Apple silicon Macs is different – The Eclectic Light Company