FEDITECH

Votre dose de tech sur Mastodon | Romain Leclaire

Image

L'industrie de la technologie traverse souvent des cycles prévisibles. D'abord l'euphorie de la découverte, puis la complexité de l'intégration réelle. Pour OpenAI, l'année 2026 sera un cap décisif dans cette chronologie. Selon un récent billet de blog publié par Sarah Friar, directrice financière de l'entreprise, l'objectif n'est plus seulement d'impressionner par la puissance brute des modèles, mais de se concentrer sur l'adoption pratique. En d'autres termes, la firme américaine cherche désormais à combler le fossé qui sépare ce que l'intelligence artificielle est capable de faire théoriquement et la manière dont les gens l'utilisent réellement au quotidien.

Son analyse se veut lucide. L'opportunité qui se présente est à la fois immense et immédiate. Elle ne réside d’ailleurs plus uniquement dans les chatbots conversationnels grand public. L'avenir se joue dans des secteurs critiques tels que la santé, la recherche scientifique et le monde de l'entreprise. Dans ces domaines, une meilleure intelligence artificielle se traduit directement par de meilleurs résultats opérationnels et humains.

Cette transition vers l'utilité concrète est le cœur du message intitulé « une entreprise qui grandit avec la valeur de l'intelligence ». Depuis le lancement de ChatGPT, OpenAI a connu une évolution fulgurante, passant du statut de laboratoire de recherche à celui de géant technologique mondial. Les métriques d'utilisateurs actifs, tant quotidiens qu'hebdomadaires, continuent d'atteindre des sommets historiques. Ce succès repose sur ce que Friar décrit comme un cercle vertueux (ou flywheel) reliant la puissance de calcul, la recherche de pointe, les produits finis et la monétisation. Mais ce moteur de croissance a un coût et il est astronomique.

Pour maintenir sa position de leader, OpenAI investit massivement. En novembre dernier, l'entreprise avait déjà pris des engagements en matière d'infrastructure s'élevant à environ 1 400 milliards de dollars. Ce chiffre vertigineux illustre la réalité économique de l'IA moderne: sécuriser une puissance de calcul de classe mondiale nécessite une planification sur plusieurs années.

La croissance n'est pourtant jamais parfaitement linéaire. Il existe des périodes où la capacité des serveurs dépasse l'usage et d'autres où la demande sature l'offre. Pour naviguer dans ces eaux troubles, OpenAI adopte une discipline financière stricte. La stratégie consiste à garder un bilan léger, en privilégiant les partenariats plutôt que la propriété directe des infrastructures et en structurant des contrats flexibles avec divers fournisseurs de matériel. Le capital est ainsi engagé par tranches, en réponse à des signaux de demande réels, évitant de verrouiller l'avenir plus que nécessaire.

L'évolution de l'usage entraîne inévitablement celle du modèle d'affaires. OpenAI a récemment annoncé l'arrivée prochaine de publicités sur sa plateforme et a lancé l'abonnement plus abordable « ChatGPT Go ». Mais selon Sarah Friar toujours, l'avenir ira bien au-delà de ce que l'entreprise vend actuellement.

Alors que l'intelligence artificielle s'infiltre dans la recherche scientifique, la découverte de médicaments, la gestion des systèmes énergétiques ou la modélisation financière, de nouveaux modèles économiques vont émerger. Nous pourrions voir apparaître des systèmes de licences, des accords basés sur la propriété intellectuelle, et surtout, une tarification basée sur les résultats. L'idée est de partager la valeur créée par l'IA, plutôt que de simplement vendre un accès. C'est ainsi que l'internet a évolué et l'intelligence artificielle suivra probablement le même chemin.

Enfin, cette adoption pratique pourrait bientôt prendre une forme physique. En partenariat avec le légendaire designer Jony Ive, OpenAI travaille sur des dispositifs matériels dédiés, dont le premier pourrait être dévoilé plus tard cette année. Cela marquerait l'étape ultime de la stratégie 2026: faire sortir l'IA de nos écrans pour l'intégrer, de manière pratique et tangible, dans notre réalité.

Romain Leclaire sur Piaille.fr

Image

Sortez les cotillons, débouchez le champagne (ou le Champomy, on ne juge pas) et préparez-vous à faire la fête comme si nous étions en 1999, mais avec une meilleure résolution d'écran. C’est un grand jour pour la communauté Linux et plus particulièrement pour ceux d’entre vous qui ont juré fidélité aux distributions basées sur RPM. Oui, je parle de vous, chers utilisateurs de Fedora, Red Hat, CentOS, Rocky Linux et openSUSE. Après avoir longtemps regardé avec envie nos camarades sous Debian profiter de leurs paquets DEB natifs en sirotant leur thé, c’est enfin notre tour de briller sous les projecteurs de Mozilla.

La fondation a annoncé aujourd’hui sur son blog officiel la disponibilité immédiate d'un paquet RPM officiel pour le navigateur web open-source. Pour l'instant, l'offre se concentre initialement sur les versions “Nightly”. Si vous ne savez pas ce que c'est, disons simplement que c'est la version pour les aventuriers, ceux qui aiment vivre dangereusement et voir les nouvelles fonctionnalités avant tout le monde, au risque de voir leur navigateur faire une petite crise existentielle de temps en temps.

Mais pourquoi est-ce une nouvelle si excitante ? Eh bien, jusqu'à présent, mettre à jour Firefox sur une distribution RPM pouvait parfois ressembler à un parcours du combattant ou à un jeu de patience interminable en attendant que les mainteneurs de votre distribution daignent pousser la mise à jour. Grâce à ce nouveau paquet natif, la mise à jour vers la toute dernière version se fera désormais le jour même de sa sortie. C'est fini le temps où vous deviez télécharger une archive tarball poussiéreuse, l'extraire manuellement et tenter de créer votre propre fichier .desktop sans tout casser. Mozilla nous offre enfin la simplicité sur un plateau d'argent.

L'utilisation de ce paquet par rapport aux binaires classiques n'est pas juste une question de confort, c'est aussi une histoire de puissance brute. Mozilla promet de meilleures performances grâce à des optimisations avancées basées sur le compilateur. En gros, votre navigateur va courir plus vite. De plus, les binaires sont “durcis” avec tous les drapeaux de sécurité activés, ce qui transforme votre Firefox en véritable forteresse numérique. Et cerise sur le gâteau, le paquet inclut également les packs de langue, donc vous pourrez naviguer dans celle de Molière sans devoir bidouiller les réglages pendant des heures.

Attention cependant, gardez votre enthousiasme sous contrôle car pour le moment, c'est expérimental. C’est du Nightly. Cela signifie que la fondation compte sur vous pour jouer les cobayes et fournir des retours d'expérience au cours des prochains mois. L'objectif est de promouvoir ensuite ce paquet vers le canal bêta, et si tout se passe comme prévu et que personne ne met le feu au serveur, nous devrions voir arriver le paquet RPM stable avec la sortie de Firefox 150 plus tard dans l”année.

Si vous vous sentez l'âme d'un pionnier et que vous utilisez une distribution supportée, l'installation est d'une simplicité déconcertante. Oubliez les compilations obscures de trois heures. Voici comment procéder pour installer la bête. Pour les utilisateurs de DNF (Fedora, RHEL, CentOS), il vous suffit d'ajouter le dépôt, de rafraîchir le cache et d'installer le paquet. Vous pouvez copier-coller ces lignes de commande dans votre terminal et vous sentir comme un hacker de film d'action:

Bash

sudo dnf config-manager addrepo --id=mozilla --set=baseurl=https://packages.mozilla.org/rpm/firefox --set=gpgcheck=0 --set=repo_gpgcheck=0
sudo dnf makecache --refresh
sudo dnf install firefox-nightly

Si vous êtes plutôt de l'équipe du caméléon vert, c'est-à-dire openSUSE et que vous ne jurez que par Zypper, la procédure est tout aussi indolore. Ajoutez le dépôt, rafraîchissez et installez en quelques secondes :

Bash

sudo zypper ar -G https://packages.mozilla.org/rpm/firefox mozilla
sudo zypper refresh
sudo zypper install firefox-nightly

Enfin, pour ceux qui aiment faire les choses à l'ancienne ou qui ont des configurations un peu plus exotiques, vous pouvez toujours créer le fichier de dépôt manuellement. C’est un peu plus long, mais ça a le mérite de vous faire sentir puissant:

Bash

sudo tee /etc/yum.repos.d/mozilla.repo > /dev/null << EOF
[mozilla]
name=Mozilla Packages
baseurl=https://packages.mozilla.org/rpm/firefox
enabled=1
repo_gpgcheck=0
gpgcheck=0
EOF

Une fois ce fichier créé, les utilisateurs de DNF n'auront plus qu'à rafraîchir le cache et lancer l'installation, tandis que les adeptes de Zypper feront de même avec leurs commandes respectives. C'est simple, propre, et efficace. Alors, qu'attendez-vous pour tester ?

Romain Leclaire sur Piaille.fr

Image

Lors de l'édition 2026 du CES de Las Vegas, The Verge a organisé un enregistrement en public de son podcast Decoder, invitant Min-Liang Tan, le PDG de Razer. Cet entretien a permis de détailler la nouvelle stratégie de l'entreprise, résolument tournée vers l'intelligence artificielle, malgré les controverses et les inquiétudes palpables au sein de la communauté des joueurs.

Si la devise de la marque a toujours été “For Gamers, By Gamers” (Pour les joueurs, par les joueurs), cette interview révèle un dirigeant qui semble non seulement déconnecté des attentes réelles de sa communauté, mais qui s'engage dans une fuite en avant technologique aux implications éthiques douteuses. Le point le plus alarmant est la légèreté avec laquelle il défend le “Projet Ava”, cet hologramme d'anime “waifu” destiné à trôner sur les bureaux. En choisissant de l’alimenter avec Grok (l'IA d'Elon Musk, actuellement embourbée dans des scandales de pornographie deepfake) Razer fait preuve d'un manque de discernement flagrant.

Lorsque le journaliste Nilay Patel soulève les risques psychosociaux bien réels (attachement émotionnel, solitude, dérives), la réponse de Tan est désinvolte, voire méprisante. Il compare une intelligence artificielle générative capable de conversation complexe à un Tamagotchi. Il ignore donc délibérément une année entière de documentation sur les dangers de la dépendance aux chatbots. Prétendre se soucier de la sécurité tout en s'associant à l'IA la moins régulée du marché relève soit de l'incompétence, soit de l'hypocrisie.

Plus cynique encore est l'approche commerciale. Razer accepte des réservations payantes (20 $) pour ce projet Ava, alors même que le PDG admet ne pas connaître les spécifications finales, le modèle définitif, ni même la date de sortie. C'est la définition même du vaporware. Razer demande à ses fans de financer un concept ambigüe, transformant sa clientèle fidèle en bêta-testeurs payants pour une technologie dont il avoue lui-même ne pas savoir si elle sera “la pire idée possible”.

Le décalage est total. Alors que les sections commentaires des réseaux sociaux de Razer hurlent leur rejet de l'IA générative (le fameux “slop” ou contenu poubelle), Tan annonce un investissement massif de 600 millions de dollars dans ce domaine. Il tente de justifier cela par des outils d'aide aux développeurs, mais présente en parallèle des casques à caméras (Projet Motoko) dont l'utilité réelle (demander son chemin dans un aéroport à ChatGPT) semble dérisoire face à la complexité technique et au coût.

Enfin, il y a une ironie amère à l’entendre se plaindre de la hausse des prix de la RAM et des GPU qui rendent les ordinateurs portables Razer inabordables. Il déplore une situation (la bulle spéculative de l'IA) qu'il contribue activement à alimenter avec ses propres investissements et son battage médiatique au CES. Il semble avoir oublié que ses clients veulent du matériel performant et fiable, pas des abonnements mensuels pour discuter avec un hologramme dans un bocal. En poursuivant cette chimère de l'IA à marche forcée, la marque risque non seulement de diluer son identité, mais de s'aliéner définitivement la communauté qui a fait son succès.

Romain Leclaire sur Piaille.fr

L'UE instaure les premières règles au monde contrôlant l'intelligence  artificielle | Les Echos

Alors que les relations diplomatiques entre les États-Unis et les européens montrent des signes de fragilité, une autre bataille se joue dans nos laboratoires de recherche. Face à des rivaux qui dominent jusqu’à présent l’ensemble de la chaîne de production de l’intelligence artificielle, nous cherchons désespérément à combler notre retard. Des processeurs aux centres de données, en passant par le développement des modèles, les géants d’outre-Atlantique comme Nvidia, Google ou OpenAI semblent indétrônables, captant la majeure partie des investissements et dopant l’économie américaine.

Cette hégémonie est telle que certains experts estiment la partie déjà perdue. Le sentiment qui prévaut parfois est que la dépendance technologique de l’Europe vis-à-vis des États-Unis est devenue inéluctable, reproduisant le schéma de domination observé dans le secteur du cloud. Pourtant, malgré les avertissements de responsables cybernétiques suggérant que notre continent a déjà « perdu Internet », les gouvernements britanniques et européens refusent de capituler. Inspirés par le succès inattendu du laboratoire chinois DeepSeek, qui a prouvé que la puissance de calcul brute ne fait pas tout, nos chercheurs misent désormais sur l'inventivité architecturale plutôt que sur la force brute pour revenir dans la course.

L'ouverture comme arme stratégique

Pour contrer les firmes américaines, souvent perçues comme des boîtes noires gardant jalousement leurs secrets de fabrication, nos laboratoires parient sur une philosophie radicalement différente avec l'open source. L'idée est simple mais puissante. En publiant leurs modèles et en permettant à quiconque de les modifier, les chercheurs européens espèrent créer un effet multiplicateur. Cette approche collaborative permet d'affiner les technologies bien plus rapidement que ne pourrait le faire une entreprise isolée.

Cette quête d'autonomie a pris une urgence nouvelle face au climat géopolitique actuel. L'attitude parfois hostile de l'administration Trump et les tensions commerciales croissantes ont transformé la question technologique en enjeu de sécurité nationale. L'IA est une infrastructure critique que l'Europe ne peut plus se permettre d'ignorer. La dépendance envers une puissance étrangère, même alliée, devient un risque lorsque les alliances traditionnelles vacillent.

Un contexte transatlantique sous tension

Les récentes frictions entre Bruxelles et Washington illustrent parfaitement cette vulnérabilité. Les désaccords sur la régulation des plateformes technologiques, notamment le bras de fer concernant le réseau social X d'Elon Musk, ont provoqué de vives réactions diplomatiques. Lorsque l'Europe tente d'imposer ses règles, les États-Unis crient à l'attaque contre leurs intérêts nationaux. Dans ce contexte, la dépendance européenne à l'IA américaine ressemble de plus en plus à un levier de pression potentiel dans les futures négociations commerciales.

Pour se prémunir, les nations européennes tentent de relocaliser la production d'IA par le biais de financements et de déréglementations ciblées. Des projets comme GPT-NL ou Apertus visent à créer des modèles performants dans nos langues natives. Le défi reste malgré tout immense. Tant que les outils américains comme ChatGPT surclasseront les alternatives locales, l'effet « winner-takes-all » continuera de creuser l'écart.

Définir la souveraineté pour mieux avancer

Le chemin vers l'indépendance numérique reste toutefois semé d'embûches et de débats internes. La définition même de la souveraineté divise: s'agit-il d'une autosuffisance totale ou simplement de la capacité à proposer des alternatives domestiques ? Certains plaident pour un protectionnisme assumé, incitant nos entreprises à acheter local pour stimuler la demande, à l'instar de la stratégie chinoise. D'autres, craignant d'isoler l'Europe, défendent l'ouverture des marchés et la liberté de choix.

Malgré ces divergences, un consensus émerge sur la faisabilité du rattrapage technologique. L'exemple de DeepSeek a brisé le dogme selon lequel seuls les plus gros clusters de GPU permettent l'innovation. Avec des projets ambitieux comme SOOFI, qui vise à lancer un modèle de langage généraliste compétitif dans l'année, l'Europe veut prouver qu'elle n'est pas condamnée à être un simple spectateur. Nous devons donc devenir le DeepSeek européen et reprendre le contrôle de notre destin numérique.

Romain Leclaire sur Piaille.fr

Image

C’était trop beau pour durer, hein ? Cette petite parenthèse enchantée où l'on pouvait discuter avec l'intelligence artificielle sans se faire agresser par une bannière clignotante pour un VPN ou une crème anti-rides. Eh bien, sortez les mouchoirs (ou préparez-vous à en acheter via un lien sponsorisé), car la fête est finie. OpenAI a décidé qu'il était grand temps de transformer son chatbot prodige en panneau publicitaire interactif.

L’entreprise américaine préférée des français (non, j’avoue, je n’ai aucune source) a annoncé aujourd’hui la grande nouvelle que personne n'attendait avec impatience, le début des tests publicitaires dans ChatGPT. Pour l'instant, ce privilège douteux est réservé aux États-Unis, mais ne vous inquiétez pas, cette “innovation” traversera l'Atlantique bien assez vite pour venir polluer nos écrans européens.

L'idée est simple. Vous demandez à ChatGPT de vous aider à organiser un voyage à New York ? Il vous répondra gentiment, mais en profitera pour glisser, juste en dessous, un encart clairement étiqueté (selon leurs termes rassurants) vous proposant un hôtel charmant mais hors de prix. Fidji Simo, la responsable des applications chez OpenAI, nous assure la main sur le cœur que les réponses resteront objectivement utiles et ne seront jamais influencées par la pub. Bien sûr, et moi je suis le conseiller d’Elon Musk en communication infantile. On nous demande de faire confiance au fait que l'IA ne va pas subtilement nous orienter vers les sponsors les plus généreux. L'espoir fait vivre.

Mobile phone screen showing a ChatGPT response with simple, authentic Mexican dinner party recipes, followed by a clearly labeled sponsored product recommendation from Harvest Groceries for a hot sauce item, displayed against a soft blue gradient background.

L'offre “Go” ou l'art de payer pour être un homme-sandwich

C'est là que le génie marketing de la société de Sam Altman atteint des sommets d'absurdité comique. Ils lancent globalement une nouvelle offre d'abonnement appelée “ChatGPT Go” pour 8 dollars par mois. Ce forfait, qui se glisse entre la version gratuite et l'offre “Plus” à 20 dollars, vous donne droit à plus de messages, plus d'uploads de fichiers et l'accès au modèle GPT-5.2.

Mais attendez, voici la chute. Même en payant cette somme, vous aurez droit aux publicités ! C'est fantastique, non ? Payer pour consommer de la réclame, c'est un concept avant-gardiste que seule la Silicon Valley pouvait inventer. Si vous voulez la paix royale et un écran vierge de toute sollicitation commerciale, il faudra débourser les 20 dollars mensuels pour l'offre Plus, Pro ou Enterprise. Les pauvres (et les semi-pauvres à 8 dollars) serviront de cible marketing. Les riches, eux, auront le droit de réfléchir en paix.

Two mobile phone screens showing a ChatGPT conversation about traveling to Santa Fe, New Mexico, with an informational travel response on the left and a clearly labeled sponsored listing for “Pueblo & Pine” desert cottages, and a follow-up chat view with a text input on the right, displayed against a soft blue gradient background.

Vos données sont en sécurité (promis juré craché)

Évidemment, OpenAI a sorti l'artillerie lourde côté communication pour nous rassurer sur la confidentialité. Non, ils ne vendront pas vos conversations aux annonceurs. Quelle générosité. À la place, ils utiliseront “juste” les thèmes de vos discussions pour cibler les pubs. Nuance subtile. Si vous parlez de jardinage, vous verrez des tondeuses. Si vous parlez de la crise de la quarantaine... eh bien, on verra ce que l'algo vous propose (une voiture de sport ou une perruque ?).

Ils jurent aussi qu'il n'y aura pas de pubs sur les sujets sensibles comme la santé, la politique ou pour les mineurs. C'est touchant cette éthique à géométrie variable. On sent bien que l'entreprise essaie d'éviter le destin tragique des réseaux sociaux devenus des usines à clics, ce phénomène poétiquement appelé “enshittification” du web. Mais avec 800 millions d'utilisateurs et des factures de serveurs qui se comptent en milliards, il fallait bien que l'argent rentre. Le PDG en place a beau avoir levé 64 milliards de dollars, l'électricité, ça coûte cher.

Vers un futur sponsorisé

Au final, cette évolution était inévitable. Google Gemini et les autres concurrents mettent la pression, et OpenAI ne pouvait pas rester éternellement une association caritative technologique brûlant du cash. Mais cela marque tout de même un tournant. L'IA conversationnelle, qui promettait de révolutionner notre accès au savoir, commence doucement à ressembler à une recherche Google glorifiée avec ses liens sponsorisés en tête de page. Alors préparez-vous. Bientôt, quand vous demanderez à ChatGPT le sens de la vie, ne soyez pas surpris s'il vous répond que le bonheur se trouve peut-être dans l'achat d'une nouvelle machine à café, livrable demain avec Amazon Prime. Le futur est en marche et il est sponsorisé.

Romain Leclaire sur Piaille.fr

GNOME 49 Desktop Environment Released, This Is What’s New

Salut les amoureux du pingouin et les inconditionnels de l’interface épurée ! Sortez vos calendriers et préparez vos terminaux, car le projet GNOME a décidé que ce mois de janvier n'était pas fait pour hiberner. Aujourd'hui, on a droit à un double menu, une mise à jour de stabilité bien rassurante avec GNOME 49.3 “Brescia”, et un saut dans le vide (ou le futur, c'est selon) avec l'Alpha de GNOME 50. Attachez vos ceintures, ça va secouer, surtout si vous êtes nostalgique de X11.

On commence par le plat de résistance actuel. Un mois et demi après la version 49.2, l'équipe de développement nous livre la troisième mouture de la série “Brescia”. L'objectif ? Réparer tout ce qui vous faisait grincer des dents. Prenons Nautilus (Fichiers), par exemple. Il a enfin arrêté de faire une crise d'asthme dès qu'il croise une image aux dimensions extrêmes. Fini le gaspillage de ressources ! Il sait aussi redessiner la vue correctement quand vous changez l'échelle de l'écran, ce qui est quand même la moindre des choses en 2026.

Du côté des paramètres, c'est la fête du correctif. Le panneau Wi-Fi arrête de couper la connexion quand on gère un seul appareil (pratique, non ?) et la recherche de fuseau horaire fonctionne enfin correctement. Si vous aimez que votre système sache où vous habitez sans se tromper, c'est un plus. Les gamers du bureau ne sont pas oubliés. GNOME Sudoku et Quadrapassel (le clone de Tetris pour ceux qui dorment au fond) ont été peaufinés. Ce dernier a maintenant la décence de se mettre en pause quand vous changez de fenêtre. Idéal pour faire semblant de travailler quand le chef passe derrière vous. Le jeu s'arrête et votre score est sauf.

On note aussi des mises à jour pour Loupe (la visionneuse d'images qui zoome enfin quand on lui demande), GNOME Maps (qui ne tronque plus les gares britanniques, God Save the Queen) et le lecteur d'écran Orca, qui devient moins bavard inutilement. Bref, mettez à jour, c'est plus stable, c'est plus propre, c'est du bonheur en paquet .rpm ou .deb. Pour ceux qui sont restés sur la version précédente, sachez que GNOME 48.8 “Bengaluru” est aussi de sortie avec des correctifs similaires. Pas de jaloux.

Mais la vraie nouvelle qui fait trembler dans les chaumières, c'est l'arrivée de l'Alpha de GNOME 50. Et là, on ne rigole plus. Le changement majeur ? L'abandon du support X11. C'est la fin d'une époque. GNOME passe en mode “Wayland-only”. Si vous êtes attaché à votre vieux serveur X comme à un doudou, il va falloir être fort. (Bon, rassurez-vous, on pourra toujours lancer des sessions X11 par utilisateur, mais le message est clair: évoluez ou restez sur le quai). Cette version 50 promet aussi des trucs géniaux qu'on attend depuis longtemps:

  • Sauvegarde de session: Le système se souviendra enfin de vos fenêtres ouvertes. Révolutionnaire, non ?
  • Epiphany (GNOME Web): Une nouvelle option permet de cacher ces maudites bannières de cookies. Rien que pour ça, cette mise à jour mérite une statue.
  • Nautilus (encore lui): Un renommage par lot repensé et des filtres de recherche par type de fichier.
  • Mutter: Meilleure gestion du tiling et des clés collantes (sticky keys).

Si vous êtes sur GNOME 49, ouvrez votre gestionnaire de mises à jour et installez la 49.3 sans tarder. La prochaine, la 49.4, n'arrivera qu'en février, donc vous avez le temps de profiter de celle-ci. Si vous êtes un aventurier, un casse-cou, ou si vous aimez juste voir votre ordinateur planter de manière créative, vous pouvez télécharger l'image d'installation de GNOME 50 Alpha. C'est disponible dès maintenant pour les tests. Mais attention, c'est une version Alpha. Il y a des bugs, des fonctionnalités non finies et potentiellement des dragons. La version finale est attendue pour le 18 mars 2026.

Allez, faites chauffer les modems et bon update à tous !

Romain Leclaire sur Piaille.fr

Image

Il est difficile de croire que Wikipédia, l'encyclopédie libre qui a démocratisé l'accès au savoir universel, fête déjà son quart de siècle. Pour marquer ce vingt-cinquième anniversaire, la fondation Wikimedia ne s'est pas seulement contentée de souffler des bougies. Elle a profité de cette occasion symbolique pour dévoiler une série de nouveaux partenariats commerciaux avec la crème de la technologie mondiale et les pionniers de l'intelligence artificielle.

Au cœur de cette nouvelle stratégie se trouve Wikimedia Enterprise, un produit commercial développé par la fondation. Loin de trahir sa mission d'accès gratuit pour le grand public, cet outil est conçu pour répondre aux besoins titanesques des entreprises technologiques. Il permet une réutilisation et une distribution à grande échelle du contenu de Wikipédia et des autres projets affiliés. Si un partenariat avec Google avait déjà été officialisé en 2022, Wikimedia a levé le voile sur l'ampleur réelle de son réseau de clients. Au cours de l'année écoulée, des accords ont été conclus avec des mastodontes comme Amazon, Meta et Microsoft, mais aussi avec des acteurs émergents et disruptifs de l'IA tels que la start-up française Mistral AI et le moteur de réponse Perplexity. D'autres collaborations avec Ecosia, Pleias, ProRata, Nomic et Reef Media viennent compléter ce tableau impressionnant.

Ces accords offrent à Wikipédia un nouveau levier indispensable pour assurer sa pérennité économique. Nous vivons une époque où le contenu de l'encyclopédie est massivement aspiré et réutilisé par des modèles de langage et des services technologiques pour fournir des réponses factuelles et instantanées aux internautes. Plutôt que de subir ce pillage numérique, Wikimedia Enterprise transforme cette dépendance en opportunité. Le service ne se contente pas de faire payer ces entreprises pour l'usage des données. Il leur offre en retour un accès privilégié, rapide et volumineux, spécifiquement calibré pour alimenter leurs algorithmes gourmands en informations.

Il faut dire que l'enjeu est colossal. La fondation a rappelé dans son billet de blog que Wikipédia figure toujours parmi les dix sites web les plus visités au monde. Avec plus de 65 millions d'articles rédigés dans plus de 300 langues et près de 15 milliards de vues par mois, l'encyclopédie constitue le socle de vérité sur lequel repose une grande partie du web moderne. C'est précisément cette base de données humaine que les géants de la Silicon Valley s'arrachent.

Pourtant, au milieu de cette effervescence technologique, la fondation tient à rappeler une vérité fondamentale à travers l'importance du facteur humain. Selena Deckelmann, directrice des produits et de la technologie, a souligné avec justesse que le savoir est intrinsèquement humain et qu'il nécessite ces derniers pour être créé et maintenu. Dans un monde de plus en plus automatisé, la connaissance générée par les bénévoles de Wikipédia est plus précieuse que jamais. C'est grâce à l'aide continue des lecteurs, des éditeurs volontaires et des donateurs que la plateforme restera ce carrefour indispensable de la collaboration en ligne.

Les célébrations de cet anniversaire ne se limitent toutefois pas aux annonces corporatives. Wikimedia a lancé une vaste campagne commémorative incluant une nouvelle série documentaire vidéo. Celle-ci offre une plongée fascinante dans les coulisses, mettant en valeur les visages des bénévoles qui, aux quatre coins du globe, construisent l'encyclopédie jour après jour. Une capsule temporelle numérique a également été inaugurée pour explorer le passé, le présent et le futur du site, avec la participation narrative de son fondateur, Jimmy Wales. Pour couronner le tout, un événement en direct est prévu aujourd’hui sur les réseaux sociaux de Wikipédia, promettant divertissements et invités de marque.

Ces annonces dessinent le portrait d'une organisation qui refuse de vieillir. Entre la modernisation de son infrastructure technique, ses propres expérimentations avec l'IA et l'introduction de nouveaux formats comme la vidéo courte, elle prouve qu'elle est prête à affronter les vingt-cinq prochaines années avec la même pertinence qu'au premier jour.

Romain Leclaire sur Piaille.fr

Image

Nous adorons tous la magie de la technologie, surtout lorsqu'elle simplifie nos interactions quotidiennes. Prenez Google Fast Pair, par exemple. Ce protocole a été conçu avec une idée noble, permettre aux utilisateurs d'Android et de ChromeOS de connecter leurs gadgets Bluetooth en une fraction de seconde, d'une simple tape. Fini les menus de configuration interminables. Pourtant, cette quête de l'ultra-commodité vient de se heurter à un mur de sécurité inquiétant.

Des chercheurs en sécurité de l'université KU Leuven, en Belgique, ont révélé une réalité glaçante. Le protocole même qui rend vos connexions si fluides peut être retourné contre vous. Baptisée WhisperPair, cette collection de vulnérabilités permet à des pirates de prendre le contrôle de centaines de millions d'écouteurs, de casques et d'enceintes, transformant vos accessoires audio en outils d'espionnage redoutables.

L'équipe de recherche a identifié des failles critiques dans 17 accessoires audio utilisant le protocole Fast Pair, vendus par des géants de l'industrie comme Sony, JBL, Xiaomi, Nothing, OnePlus et même Google. Le scénario d'attaque est d'une simplicité effrayante. Un pirate équipé d'un équipement peu coûteux (comme un Raspberry Pi) et se trouvant à portée Bluetooth (environ 15 mètres) peut détecter votre appareil et s'y connecter silencieusement. Selon Sayon Duttagupta, l'un des chercheurs, l'attaque est fulgurante:

« Vous marchez dans la rue, écouteurs sur les oreilles. En moins de 15 secondes, nous pouvons détourner votre appareil. »

Une fois connecté, l'attaquant devient le maître à bord. Il peut injecter son propre son à un volume assourdissant, couper vos appels, ou pire, activer le microphone pour écouter vos conversations ambiantes à votre insu. L'aspect le plus pernicieux concerne la localisation. Les chercheurs ont découvert que certains modèles, notamment chez Google et Sony, peuvent être exploités pour traquer physiquement la victime. Si vos écouteurs n'ont pas été préalablement liés à un compte Google (par exemple, si vous êtes un utilisateur d'iPhone qui utilise des écouteurs tiers) un pirate peut lier l'accessoire à son propre compte Google via l'attaque.

Dès lors, vos écouteurs deviennent une balise de suivi dans le réseau “Localiser mon appareil” de Google. Le pirate peut suivre vos déplacements en temps réel sur une carte. Bien que Google et Apple aient mis en place des alertes pour prévenir le harcèlement, la victime recevrait une notification indiquant qu'elle est suivie par... ses propres écouteurs. La plupart des utilisateurs, pensant à un bug, ignoreraient probablement l'alerte, laissant le champ libre au stalker. Google a réagi en publiant un bulletin de sécurité et en déployant des correctifs pour ses propres appareils et pour le système Android. L'histoire ne s'arrête pourtant pas là. Les chercheurs ont déjà trouvé un moyen de contourner ce correctif concernant le traçage, prouvant que le jeu du chat et de la souris est loin d'être terminé.

Le problème structurel réside dans la nature même des objets connectés. Contrairement à votre smartphone ou votre ordinateur, qui vous harcèlent pour faire leurs mises à jour, vos enceintes et écouteurs restent souvent sur leur firmware d'origine. Pour vous protéger, vous devez généralement télécharger une application spécifique au fabricant (comme l'appli Sony ou JBL) pour installer les correctifs. Soyons honnêtes, la grande majorité des consommateurs ignorent même que ces applications existent ou que leurs écouteurs ont besoin de mises à jour logicielles. Tant qu’elles ne sont pas effectuées, les vulnérabilités persistent. Les chercheurs avertissent que des millions d'appareils resteront probablement vulnérables pendant des mois, voire des années.

L'origine du problème semble être un mélange de spécifications techniques mal interprétées par les fabricants de puces et de faiblesses dans le standard Fast Pair lui-même. Bien que Google certifie ces appareils, les tests n'ont visiblement pas suffi à détecter ces aberrations de sécurité, comme le fait qu'un appareil déjà couplé accepte une nouvelle connexion sans authentification forte. Alors, que faire ? La recommandation immédiate est de vérifier si vos accessoires audio disposent d'une application compagnon et de forcer une mise à jour du firmware dès aujourd'hui.

Au-delà du correctif technique, WhisperPair nous rappelle une vérité fondamentale de l'ère numérique, la commodité a un prix. En voulant supprimer les frictions technologiques pour nous faciliter la vie, les constructeurs suppriment parfois les barrières qui nous protègent. Comme le conclut le chercheur Nikola Antonijević: « La commodité ne devrait pas signifier moins de sécurité. »

Romain Leclaire sur Piaille.fr

Image

Si vous pensiez que la période de l'efficacité chez Meta était terminée, détrompez-vous. Mark Zuckerberg et sa garde rapprochée viennent de dévoiler leur dernière arme pour presser le citron jusqu'à la dernière goutte avec un nouveau système d'évaluation baptisé “Checkpoint”. Sous couvert de simplification administrative et de récompenses financières alléchantes, ce programme, qui entrera en vigueur d’ici mi-2026, semble surtout marquer l'avènement d'une culture d'entreprise impitoyable où la compétition interne prime sur la collaboration.

Selon des documents internes obtenus par Business Insider, l’entreprise américaine promet désormais des bonus pouvant atteindre 300% du salaire de base pour une poignée d'élus. C'est le miroir aux alouettes classique, agiter une carotte dorée pour faire courir l'ensemble de la meute plus vite. Mais derrière ces chiffres qui donnent le tournis se cache une mécanique bien plus sombre, celle d'un darwinisme corporatif assumé qui ne laisse aucune place à l'erreur.

Le nouveau système divise les employés en quatre catégories distinctes. D'un côté, l'élite, les “Outstanding” (environ 20% des effectifs) qui toucheront un multiplicateur de 200% et une infime minorité recevant le nouveau “Meta Award” avec un multiplicateur de 300%. De l'autre, la masse laborieuse classée “Excellent” (environ 70%), qui recevra 115% de son bonus cible. L'excellence est donc devenue la norme, le minimum syndical. Ce qui était autrefois une performance louable est désormais considéré comme le point de départ, la ligne de base.

Mais le véritable danger réside dans le bas du classement. Environ 10% des employés se retrouveront dans les catégories “Needs Improvement” (50% de bonus) ou “Not Meeting Expectations” (0% de bonus). Dans un contexte où Meta a récemment exigé de ses managers qu'ils classent de force 15 à 20% de leurs équipes dans les catégories inférieures, ce nouveau système ressemble moins à un outil de développement qu'à un algorithme de licenciement déguisé. Être classé dans ces catégories revient pratiquement à recevoir une notification de préavis.

Pour vendre cette pilule amère, la direction utilise l'argument fallacieux de la bureaucratie. Le mémo interne déplore que les managers passent 80 heures par an sur les évaluations et que les employés perdent collectivement 330 000 heures en feedbacks. L'objectif officiel est de sauver du temps. En réalité, en réduisant l'importance des retours entre pairs, Meta élimine l'un des derniers remparts d'humanité et de nuance dans l'évaluation du travail.

Le passage à deux cycles d'évaluation complets par an (milieu et fin d'année) avec la même échelle de notation ne va pas réduire la pression, bien au contraire. Il va instaurer un climat de surveillance perpétuelle. Les employés ne pourront plus jamais relâcher la pression. Ils seront constamment sur la sellette, jugés tous les six mois avec la menace implicite de voir leur bonus fondre ou leur poste disparaître. C'est l'institutionnalisation du stress chronique.

Ce virage n'est pas là par hasard. Il trouve sa place dans une tendance lourde de la Silicon Valley, où Google et Amazon durcissent également leurs processus d'évaluation. Mais chez Meta, le cynisme atteint des sommets. Après avoir licencié des milliers de personnes et qualifié 2025 d'année “intense”, l'entreprise transforme ses bureaux en arène de gladiateurs.

En promettant des sommes astronomiques aux “super-performants”, elle brise la cohésion d'équipe. Pourquoi aider un collègue si cela risque de permettre à ce dernier de vous voler votre place dans le top 20% ? Ce système “Checkpoint” est conçu pour extraire le maximum de productivité par la peur et l'appât du gain, sacrifiant au passage le bien-être mental des salariés et la culture de l'entraide. Sous les dehors brillants d'une réforme moderne, c'est un retour aux méthodes de management les plus archaïques et déshumanisantes.

Romain Leclaire sur Piaille.fr

Image

C’est une nouvelle qui ravira les nostalgiques de l’ère du Web 2.0 et intriguera certainement la nouvelle génération d'internautes. Digg, l’une des communautés en ligne pionnières d’Internet et ancien grand rival de Reddit, reprend officiellement du service. Mais ce n'est pas une simple refonte esthétique, l'entreprise est de retour sous la houlette de son fondateur original, Kevin Rose, qui s'est associé pour l'occasion à une figure surprenante, Alexis Ohanian, le cofondateur de Reddit. Depuis ce mercredi, la plateforme a lancé sa version bêta ouverte au public.

Pour comprendre l'importance de ce retour, il faut remonter le temps. À son apogée en 2008, Digg était évalué à environ 175 millions de dollars. C'était le carrefour incontournable de l'actualité tech et sociale, un agrégateur de news puissant. La plateforme a pourtant fini par être dépassée par Reddit, son concurrent direct, qui a su captiver les communautés avec une approche plus brute et centrée sur la discussion.

L'histoire de Digg a ensuite été chaotique: démantèlement en 2012, vente de ses actifs à Betaworks, LinkedIn et au Washington Post, puis un rachat par une société de publicité en 2018. Pendant ce temps, Reddit est devenu un géant coté en bourse, signant des accords de licence de contenu avec les mastodontes de l'IA comme Google et OpenAI.

Image

Aujourd'hui, Rose et Ohanian croient que le vent tourne. Ils ont racheté la marque en mars dernier via un montage financier impliquant True Ventures, la firme Seven Seven Six d'Ohanian et S32. Leur pari ? L'essor de l'intelligence artificielle a créé un besoin urgent de reconstruire un espace social sain.

Le nouveau Digg ressemble à son rival dans la forme, un site web et une application mobile où l'on navigue dans des flux, rejoint des communautés et où l'on peut “upvoter” (ou “digger”) du contenu. Mais la philosophie derrière le produit est radicalement différente, axée sur la résolution de la toxicité actuelle des réseaux sociaux. Le défi principal identifié par les fondateurs est la prolifération des bots. Comment s'assurer que l'on interagit avec de vrais humains sans pour autant exiger une carte d'identité ou un processus bancaire intrusif ?

Kevin Rose rejette l'idée de forcer les utilisateurs à décliner leur identité réelle. À la place, Digg mise sur des signaux de confiance. La plateforme expérimente des technologies de pointe, comme les preuves à divulgation nulle de connaissance (zero-knowledge proofs). Cette méthode cryptographique permet de vérifier une information sans révéler les données sous-jacentes.

Image

Concrètement, cela permettrait des usages novateurs. Imaginez une communauté dédiée aux montres connectées. Digg pourrait vérifier que les membres possèdent réellement l'objet sans qu'ils aient à divulguer leur nom. De même, l'application pourrait utiliser des signaux mobiles pour confirmer que ces derniers ont assisté à un même événement physique, renforçant ainsi leur crédibilité. Il ne s'agit pas d'une solution miracle unique, mais d'une accumulation de petits gestes créant un écosystème de confiance.

Avant ce lancement public, Digg fonctionnait sur invitation avec environ 67 000 utilisateurs répartis dans 21 communautés généralistes (gaming, technologie, divertissement). Désormais, n'importe qui peut créer sa propre communauté, aussi nichée soit-elle (pour m’être enrollé dans cette phrase préliminaire, le contenu était massivement anglophone jusqu’à présent).

La gestion de ces espaces se veut plus transparente. Les journaux de modération seront publics, permettant aux membres de comprendre les décisions prises par les gestionnaires. De plus, bien que le lancement se fasse avec un gestionnaire unique par communauté, l'objectif est d'évoluer. Justin Mezzell, le PDG de Digg, explique que l'équipe adopte une approche agile: “construire l'avion en plein vol”. Cela signifie des mises à jour agressives et hebdomadaires pour ajouter des fonctionnalités, comme l'intégration de scores Letterboxd pour les communautés de cinéma.

L'entreprise souhaite également repenser le modèle du modérateur bénévole, souvent source de tensions sur Reddit. Bien que les plans ne soient pas encore finalisés, l'objectif est de rendre l'expérience plus équitable pour ceux qui construisent la valeur de la plateforme. Avec une équipe réduite mais disposant de plusieurs années de trésorerie pour trouver son marché, Digg ne cherche pas la croissance immédiate à tout prix. Reste à voir si cette vision suffira à convaincre les internautes de migrer vers ce phénix du web social.

Romain Leclaire sur Piaille.fr

Enter your email to subscribe to updates.