Bonnes et mauvaises CTE : comprendre les Common Table Expressions Les Common Table Expressions (CTEs) améliorent la lisibilité et la structuration des requêtes SQL complexes. Avant PostgreSQL 12, les CTEs fonctionnaient comme des "barrières d'optimisation", toujours matérialisées, ce qui entravait les capacités d'optimisation du planificateur, l'utilisation d'index et la poussée de prédicats. Cette approche garantissait l'isolation des instantanés et la gestion des effets de bord. PostgreSQL 12 a introduit l'intégration automatique (inlining) pour les CTEs non récursives, sans effets de bord et référencées une seule fois. Le planificateur les traite comme des sous-requêtes classiques, permettant des optimisations complètes. La matérialisation reste la règle pour les CTEs référencées plusieurs fois, récursives, modifiant des données (INSERT/UPDATE/DELETE), ou contenant des fonctions VOLATILE. Un défi majeur des CTEs matérialisées est le "trou noir statistique" : le planificateur manque de données fiables pour estimer les coûts, risquant des plans d'exécution sous-optimaux. PostgreSQL 17 a partiellement corrigé cela en propageant les statistiques de colonnes et l'ordre de tri. L'approche "impérative" dans la construction des requêtes, même avec l'inlining, peut créer des inefficacités. Par exemple, un `GROUP BY` suivi d'un filtre peut être moins performant qu'une sous-requête corrélée `EXISTS`. Les CTEs modifiant des données offrent des opérations atomiques puissantes mais exigent `RETURNING` pour communiquer les résultats. Les CTEs récursives, toujours matérialisées, gèrent les hiérarchies ; PostgreSQL 14 a introduit les clauses `SEARCH` et `CYCLE` pour une meilleure gestion. Maîtriser ces nuances est crucial pour tirer pleinement parti des CTEs. - **Discussion HN** : [Lire la discussion](https://news.ycombinator.com/item?id=47571330) - **Article source** : [Good CTE, bad CTE | boringSQL](https://boringsql.com/posts/good-cte-bad-cte/)
Archives
Tag : #economie • 137 articles • Page 4 sur 12L'IA ne tue pas les emplois, elle les "déstructure" • The Register L'intelligence artificielle transforme le marché du travail en "déstructurant" les postes plutôt qu'en les supprimant purement et simplement. Une nouvelle analyse suggère que l'IA fragmente les rôles en automatisant des tâches spécifiques, particulièrement celles des "bundles faibles" qui peuvent être aisément séparées. Pour les "bundles forts", exigeant jugement et contexte, l'IA améliore la performance sans évincer l'humain. Cette dynamique, si elle accroît la productivité, conduit les travailleurs à se concentrer sur des tâches résiduelles plus étroites, augmentant leur charge sans compensation salariale adéquate et diluant le "flow" créatif. L'IA décuple la surface de responsabilité humaine tout en réduisant le besoin en compétences techniques brutes, conduisant à une concentration du travail sur un nombre réduit de personnes. Les bénéfices de cette productivité accrue profitent principalement aux détenteurs de capitaux, alimentant une stagnation des salaires et une croissance limitée de l'emploi, même si certains emplois hautement qualifiés sont déjà impactés. L'humain reste indispensable pour la prise de décision, le contexte et la reddition de comptes. - **Discussion HN** : [Lire la discussion](https://news.ycombinator.com/item?id=47567183) - **Article source** : [Researchers: AI isn't killing jobs, it's 'unbundling' them • The Register](https://www.theregister.com/2026/03/24/ai_job_unbundling/)
Framework devient un mécène de KDE - KDE e.V. Framework, fabricant d'ordinateurs modulaires reconnus pour leur facilité de réparation et d'amélioration, a officialisé son soutien à KDE en devenant son dernier mécène. Cette initiative, datée du 27 mars 2026, souligne l'engagement de Framework envers le logiciel libre et le contrôle utilisateur sur les machines, des principes partagés et valorisés par la communauté KDE. Nirav Patel, fondateur de Framework, a mis en avant la forte popularité de KDE auprès des utilisateurs de ses machines et l'ambition de contribuer à l'excellence du bureau Linux. De son côté, Aleix Pol, président de KDE e.V., a salué cette collaboration comme une extension logique des partenariats avec les fabricants de matériel. Il a notamment insisté sur l'alignement entre l'engagement de Framework pour la réparabilité et les valeurs de KDE, cruciales pour bâtir une industrie plus durable. Framework rejoint ainsi une liste d'autres mécènes influents qui appuient financièrement le développement de KDE et du logiciel libre. - **Discussion HN** : [Lire la discussion](https://news.ycombinator.com/item?id=47546679) - **Article source** : [Framework Becomes a KDE Patron - KDE e.V.](https://ev.kde.org/2026/03/27/framework-becomes-kde-patron/)
Minutes avant l'annonce de Trump, 800 millions de dollars de transactions sur les prix du pétrole Juste avant une annonce très attendue de Donald Trump, 800 millions de dollars de transactions significatives ont été enregistrées sur les prix du pétrole. Cette activité boursière intense précède une déclaration de Trump qui s'est avérée remarquablement vague, se limitant à des "conversations très bonnes et productives". Un tel écart entre l'ampleur des transactions et la teneur évasive de l'annonce soulève de sérieuses questions quant à d'éventuels délits d'initiés. Les observateurs du marché soulignent qu'une déclaration aussi imprécise ne justifie généralement pas de mouvements boursiers substantiels et légitimes. Pour les investisseurs à long terme, la sagesse commande d'ignorer ces déclarations présidentielles éphémères. L'expérience montre que les réactions rapides et paniquées laissent souvent les spéculateurs à court terme exposés à des pertes importantes, mettant en lumière la vulnérabilité des marchés face à la rhétorique politique et au comportement spéculatif. - **Discussion HN** : [Lire la discussion](https://news.ycombinator.com/item?id=47496508) - **Article source** : [Minutes before Trump's announcement, $800 million in trades made on oil prices](https://www.9news.com.au/world/donald-trump-iran-updates-oil-futures-trade-suspicious-betting-activity-usa-world-news/1061ef6b-5fef-401c-b469-98016ccdb9c3)
Trivy à nouveau attaqué : Compromission généralisée des balises GitHub Actions expose les secrets CI/CD Les GitHub Actions de Trivy ont été la cible d'une attaque sophistiquée sur la chaîne d'approvisionnement, la deuxième pour son écosystème ce mois-ci. Les assaillants ont forcé la mise à jour de 75 des 76 balises de version du dépôt `aquasecurity/trivy-action`, injectant un infostealer malveillant. Cette compromission, résultant d'une rotation de crédentiels non atomique après une brèche antérieure, a fait en sorte que les pipelines CI/CD référençant ces balises ont exécuté le malware à l'insu des utilisateurs, avant les analyses légitimes. La charge utile, liée à l'acteur de menace cloud-native TeamPCP, extrait des données sensibles comme les identifiants cloud (AWS, GCP, Azure), les clés SSH et les portefeuilles de cryptomonnaies en vidant la mémoire des runners ou en analysant les systèmes de fichiers. Les données sont exfiltrées via un domaine typosquatté ou en créant des dépôts GitHub publics sur les comptes des victimes. Cet incident met en lumière le "Paradoxe de l'épinglage" en sécurité de la chaîne d'approvisionnement et l'importance vitale d'une gestion atomique des identifiants. Il soulève également des inquiétudes concernant les permissions excessives souvent accordées aux outils CI/CD, les transformant en cibles de grande valeur. Les utilisateurs doivent épingler `trivy-action` à un SHA de commit spécifique ou à la version `0.35.0` et révoquer immédiatement tous les secrets compromis. - **Discussion HN** : [Lire la discussion](https://news.ycombinator.com/item?id=47475888) - **Article source** : [Trivy Under Attack Again: Widespread GitHub Actions Tag Comp...](https://socket.dev/blog/trivy-under-attack-again-github-actions-compromise)
Bloquer Internet Archive n'arrêtera pas l'IA, mais effacera les archives historiques du Web | Electronic Frontier Foundation Des éditeurs de presse majeurs, dont le New York Times et The Guardian, restreignent l'accès à Internet Archive (IA), la plus grande bibliothèque numérique mondiale. Cette démarche est motivée par la crainte que des entreprises d'IA n'utilisent leur contenu pour l'entraînement de modèles, une pratique qui, selon les éditeurs, enfreint le droit d'auteur et menace leurs revenus. Toutefois, cette riposte risque d'effacer des décennies d'archives historiques du web, pourtant vitales pour les journalistes, chercheurs et tribunaux, et souvent seul témoin fiable de la publication originale d'articles. Bien que la protection du droit d'auteur et des modèles économiques soit légitime, l'IA, en tant qu'organisation à but non lucratif, n'est pas un acteur commercial de l'IA. Son rôle d'archivage est reconnu comme un usage loyal. La complexité réside dans l'incapacité technique de distinguer les "bons" archivistes des "mauvais" "scrapers" d'IA, qui deviennent de plus en plus indétectables. Des voix s'élèvent pour souligner que l'IA elle-même, par sa position sur le `robots.txt` et certaines collaborations passées, a pu contribuer à cette tension. Un compromis suggéré serait un archivage différé, permettant aux éditeurs de monétiser l'actualité avant que le contenu ne devienne une ressource archivée publiquement. Ce débat met en lumière l'équilibre délicat entre la préservation de l'information, la souveraineté du contenu et les défis financiers de l'industrie médiatique à l'ère de l'IA. - **Discussion HN** : [Lire la discussion](https://news.ycombinator.com/item?id=47464818) - **Article source** : [Blocking the Internet Archive Won’t Stop AI, But It Will Erase the Web’s Historical Record | Electronic Frontier Foundation](https://www.eff.org/deeplinks/2026/03/blocking-internet-archive-wont-stop-ai-it-will-erase-webs-historical-record)
Astral rejoint OpenAI pour l'avenir de la productivité logicielle Astral, l'entreprise derrière des outils Python très appréciés comme Ruff, uv et ty, a annoncé son acquisition par OpenAI pour intégrer l'équipe Codex. Cette initiative vise à intensifier les efforts pour rendre la programmation plus productive, en combinant l'expertise d'Astral en outillage de développement avec les avancées d'OpenAI dans l'intelligence artificielle. Astral s'engage à maintenir ses outils en open source et à continuer de les développer "en public". Cette annonce suscite néanmoins des interrogations au sein de la communauté des développeurs. Des inquiétudes émergent quant à la centralisation des "moyens de production" du logiciel par de grandes entités d'IA. Certains craignent que la feuille de route des outils d'Astral ne soit désormais influencée par les objectifs d'OpenAI, potentiellement au détriment de l'indépendance de l'écosystème Python. L'intégration dans Codex pourrait orienter le développement vers des synergies spécifiques à OpenAI, transformant la dynamique de ces projets open source, malgré les bénéfices financiers pour l'équipe d'Astral et la promesse de ressources accrues. - **Discussion HN** : [Lire la discussion](https://news.ycombinator.com/item?id=47438723) - **Article source** : [Astral to join OpenAI](https://astral.sh/blog/openai)
Mon vol aura-t-il Starlink ? Un nouvel outil, Stardrift.ai, permet de prédire la disponibilité de Starlink sur les vols, une information jusqu'alors incertaine. Il analyse la compagnie aérienne, le type d'appareil et, si assigné, le numéro de queue spécifique. Actuellement, seul un nombre limité de transporteurs aériens, comme United, Hawaiian, Alaskan, Air France, Qatar et JSX, ont déployé Starlink au-delà des phases d'essai. La performance supérieure de cette connexion satellite en fait un avantage concurrentiel significatif pour les compagnies, notamment pour les voyageurs d'affaires. Au-delà de l'aviation, Starlink est présenté comme une solution économique pour l'accès internet dans les zones rurales, souvent plus abordable que l'extension des infrastructures terrestres. Cette technologie mobile est également adoptée par les véhicules récréatifs, les bateaux et les commerces ambulants. Cependant, son déploiement soulève des débats sur la pertinence des subventions pour l'infrastructure rurale. Des critiques émergent également concernant la rentabilité économique à long terme de Starlink, la durée de vie de ses satellites et des liens présumés avec des programmes de défense, tandis que l'implication controversée de son fondateur influence la perception de certains consommateurs. - **Discussion HN** : [Lire la discussion](https://news.ycombinator.com/item?id=47428650) - **Article source** : [Show HN: Will my flight have Starlink?](https://news.ycombinator.com/item?id=47428650)
Donnez à Django votre temps et votre argent, pas vos tokens L'utilisation des grands modèles de langage (LLM) dans les contributions aux projets open source, tels que Django, soulève des préoccupations importantes. Bien que ces outils puissent accélérer le développement, leur application sans discernement compromet la qualité et l'esprit communautaire. Le problème fondamental n'est pas l'usage des LLM en soi, mais le manque de compréhension authentique des contributeurs qu'ils masquent. Les LLM permettent de présenter une "façade de compréhension", où le code et les réponses aux retours sont générés sans une réelle appréhension du problème ou de la solution. Cette superficialité démoralise les relecteurs, qui perdent le bénéfice de l'interaction humaine et se retrouvent submergés par des contributions de faible qualité. Pour Django, un projet réputé pour sa longévité et ses standards élevés, cette dilution de la qualité et de la transparence humaine est préjudiciable. Il est impératif que les LLM soient utilisés comme des outils complémentaires pour approfondir la compréhension, et non comme des substituts à celle-ci. L'apprentissage, l'expérimentation et une communication claire et personnelle restent essentiels. La transparence sur l'utilisation des LLM est également cruciale, notamment en cas de difficulté à exprimer ses idées. Pour les mainteneurs, préserver la qualité exige parfois de réévaluer les modèles de contribution, privilégiant l'engagement humain et la compréhension profonde à la simple quantité de code généré. - **Discussion HN** : [Lire la discussion](https://news.ycombinator.com/item?id=47400089) - **Article source** : [Give Django your time and money, not your tokens](https://www.better-simple.com/django/2026/03/16/give-django-your-time-and-money/)
Lancement HN: Voygr (YC W26) – Une meilleure API de cartes pour agents et applications IA Voygr propose une solution cruciale au problème persistant des données locales obsolètes qui affectent la précision des services de cartographie et des intelligences artificielles. Les API actuelles ne fournissent qu'un instantané statique des lieux, ignorant des changements dynamiques comme le départ d'un chef ou la fermeture d'un commerce. Cette lacune est d'autant plus critique que 25 à 30 % des entreprises physiques changent chaque année, et qu'une part significative des recherches (40 % sur Google, 20 % des requêtes LLM) implique un contexte local, souvent traité de manière erronée par les IA. Pour y remédier, Voygr, fondé par d'anciens experts de Google, Apple et Meta, développe un "profil de lieu interrogeable à l'infini". Leur API de validation des entreprises agrège de multiples sources de données web pour déterminer l'état réel d'un établissement — ouvert, fermé, renommé ou invalide. Elle détecte les signaux contradictoires et fournit un verdict structuré, agissant comme une "intégration continue" pour le monde physique. Cette infrastructure est essentielle à mesure que les agents conversationnels s'engagent davantage dans des interactions concrètes. Déjà utilisée par de grandes entreprises, Voygr ouvre son API aux développeurs, cherchant à affiner cette synchronisation complexe entre le monde réel et le numérique. - **Discussion HN** : [Lire la discussion](https://news.ycombinator.com/item?id=47401042) - **Article source** : [Launch HN: Voygr (YC W26) – A better maps API for agents and AI apps](https://news.ycombinator.com/item?id=47401042)
SBCL Fibers : Les Threads Coopératifs qui Révolutionnent Lisp SBCL Fibers offre une implémentation de "threads" coopératifs légers en espace utilisateur, conçue pour optimiser la gestion des charges de travail concurrentes et gourmandes en E/S, typiques des serveurs web. Ce système préserve un modèle de programmation séquentiel tout en réduisant drastiquement l'empreinte mémoire (piles de 256 Ko par défaut contre 8 Mo pour les threads OS) et en accélérant les changements de contexte en espace utilisateur. L'intégration transparente permet aux primitives bloquantes existantes de SBCL (attente E/S, mutex, sommeil) de fonctionner coopérativement. Un ordonnanceur sophistiqué gère la distribution des tâches via le "work stealing" sur plusieurs cœurs, assurant une utilisation efficace des ressources. L'intégration robuste avec le ramasse-miettes garantit la sécurité des objets Lisp. Les analyses de performance révèlent que Fibers surpasse les threads OS à haute concurrence, offrant des gains significatifs en débit et en efficacité mémoire. Ce mécanisme est considéré comme expérimental, mais est déjà utilisé en production. Il est important de noter que le "pinning" (épinglage) des fibres, nécessaire pour certaines interactions avec des bibliothèques C sensibles au thread (comme SSL), peut bloquer temporairement les threads porteurs, ce qui nécessite une gestion attentive ou des alternatives entièrement écrites en Lisp. La capacité de décharger des tâches, même pour des opérations comme l'impression, pour éviter de bloquer le flux principal est également mise en avant. - **Discussion HN** : [Lire la discussion](https://news.ycombinator.com/item?id=47382398) - **Article source** : [SBCL Fibers – Lightweight Cooperative Threads](https://atgreen.github.io/repl-yell/posts/sbcl-fibers/)
Jeux Vidéo : PEGI 16 pour les Loot Boxes en Europe L'organisme européen de classification des jeux vidéo PEGI imposera une classification minimale de 16 ans aux jeux comportant des "loot boxes" à travers l'Europe, y compris au Royaume-Uni, à partir de juin. Ces mécanismes, qui permettent d'acheter des objets virtuels mystère avec de l'argent réel, sont de plus en plus perçus comme brouillant la frontière avec le jeu de hasard. La nouvelle classification pourra même atteindre 18 ans dans certains cas, et s'étendra à d'autres éléments comme les NFT (18 ans) et les passes de combat payants (12 ans). Si cette mesure est saluée comme un progrès pour mieux informer les parents, des critiques soulignent son application non-rétroactive, qui ne protégera pas les enfants jouant déjà aux titres existants. Au Royaume-Uni, le gouvernement a choisi de ne pas classer les loot boxes comme des jeux de hasard, préférant s'appuyer sur l'auto-régulation de l'industrie, jugée souvent insuffisante. Les discussions soulignent que ces systèmes exploitent des manipulations psychologiques similaires à celles du jeu d'argent, qui peut devenir particulièrement destructeur lorsqu'il est constamment accessible via les appareils mobiles. L'efficacité des classifications dépendra de la vigilance parentale, certains plaidant pour des régulations plus fermes, comme des plafonds de dépense ou des délais de remboursement pour contrer l'aspect addictif de ces mécaniques. - **Discussion HN** : [Lire la discussion](https://news.ycombinator.com/item?id=47371692) - **Article source** : [Games with loot boxes to get minimum 16 age rating across Europe](https://www.bbc.com/news/articles/cge84xqjg5lo)