Seuls 36% des internautes parviennent à saisir leur e-mail / password du premier coup. En feras-tu partie ? Attention à ne pas confondre vos minuscules et vos majuscules.
Vous avez oublié votre mot de passe ?
Inscription
Vous avez oublié votre mot de passe ? Il reste un espoir ! Saisissez votre adresse e-mail ; nous vous enverrons un nouveau mot de passe. Cette procédure est quasiment gratuite : elle ne vous coûtera qu'un clic humiliant.
Nous vous avons envoyé un email sur votre adresse, merci d'y jeter un oeil !

CONDITIONS D'INSCRIPTION :

1. Vous devez nous adresser, via le formulaire ci-dessous, un texte (format .txt inférieur à 100 ko) en rapport avec le football, dont la forme est libre : explication de votre passion, anecdote, aventure, souvenir, essai, commentaire composé, portrait, autobiographie, apologie, réquisitoire, etc. Vous serez ensuite informés de la validation de votre inscription par mail. Les meilleurs textes seront mis en ligne sur le Forum.

2. Nous ne disposons pas d'assez de temps pour justifier les retards d'inscription ou les non-inscriptions, et ne pouvons pas nous engager à suivre une éventuelle correspondance à ce sujet. Merci de votre compréhension.

Nous avons bien reçu votre candidature, on y jette un oeil dès que possible. Merci !

Habitus baballe

Pour causer socio, éco, sciences-po, anthropo, histoire-géo, philo, épistémo, Adorno, filporno, Bernard Pardo...

  • Red Tsar le 05/10/2021 à 15h29
    * Joey, te lire écrire « Je ne sais pas si ça rentre dans le périmètre de ce fil » avant de poster ton message, ça fait tout bizarre. Je ne t'imaginais pas venir avec tes chaussons chez tes hôtes (tu auras compris que c'était certes une petite moquerie, mais une tendre moquerie).
    * Merci pour d'avoir signalé cette émission (l'édito d'Erner, ce matin, c'était un sans-faute...). Le propos de Kahneman est à la fois intéressant et glaçant. Intéressant si c'est pour permettre une meilleure intercompréhension. Glaçant si c'est pour « orienter » les jugements : il évoque ça vers la fin, mais sans trop approfondir. Le vieux fond d'humanisme petit-bourgeois qui sommeille en moi trépigne quelque peu. Ceci étant, je lui suis très reconnaissant de rester à une démarche qui s'intéresse à l'humain et a l'espoir de pouvoir l'éduquer. Si c'est une façon de résister à la poussée des algorithmes (« weapons of math destruction ») dans les prises de décision (dans le recrutement des universités, les verdicts judiciaires, les enquêtes de police, la fixation des tarifs assurantiels...), je suis preneur (les ouvrages de Cathy O'Neil m'avaient quelque peu effrayé).
    Par contre, le fond vieux fond de marxisme petit-bourgeois qui sommeille en moi regrette qu'il en reste toujours à une question de subjectivité personnelle (dans l'entretien, du moins). Si, évidemment, ce serait stupide de dire que les différences de verdicts judiciaires, par exemple, s'expliquent seulement par les classes sociales, les réduire à un aspect de subjectivité personnelle me paraît réducteur. Il y a là, je pense, une articulation à creuser.

  • Le génie se meurt ? Ah mais l'mage rit le 05/10/2021 à 16h33
    Les décisions judiciaires peuvent également s'expliquer par leur temporalité par rapport au repas ou à une bonne sieste. Je dis ça, je dis rien.

    lien

  • Joey Tribbiani le 05/10/2021 à 16h47
    Ah mais pas de problème, c'est de bonne guerre.
    Tu sais quand des gens - qui ne me connaissent pas - ne me traitent pas de reac, de facho ou autres amabilités (bien plus révélatrices de leur misère intellectuelle intolérante et autocentrée que de mes véritables convictions) je suis doux et tendre comme un agneau. :-)

  • Josip R.O.G. le 05/10/2021 à 17h07
    Préfèreriez vous être jugé par un algorithme froid et implacable ou par un magistrat affamé; jouer aux échecs contre une IA infaillible plutôt que contre un Grand Maître amoureux?
    Comment réduire l'arbitraire en préservant l'humain?

  • Franco Bas résilles le 05/10/2021 à 17h37
    Joey Tribbiani aujourd'hui à 16h47
    [...]je suis doux et tendre comme un agneau. :-) [...]
    C'est ici, alors, le fil barbecue ?
    Sinon, merci en effet pour la référence, j'ai écouté, et je crois qu'il va me falloir prendre mon temps pour digérer tout ça. A commencer par l'anecdote, qu'il raconte en français, sur sa rencontre avec un nazi en 43 alors qu'il portait son étoile à l'intérieur de son pull retourné...

  • Red Tsar le 05/10/2021 à 18h40
    Tu poses bien les données du problème, si ce n'est qu'aux États-Unis, où l'usage des algorithmes est répandu, ceux-ci ne sont pas « plus justes », mais au contraire accroissent les inégalités de traitement. Je me souviens de cas notamment pour les entrées à l'université ou pour les assurances où, en gros plus, tu es pauvre plus tu payes cher, phénomène accru avec les algorithmes.
    À défaut d'interdire les algorithmes (et je suppose qu'ils peuvent rendre des services), on pourrait imaginer (je ne lance que des pistes à la volée) :
    - introduire de l'éthique dans la formation des programmeurs,
    - encadrer juridiquement les données qui peuvent être utilisées par les algorithmes,
    - obliger à informer une personne quand son cas va être traité par un algorithme,
    - autoriser un recours à l'humain si la personne le souhaite,
    - et, surtout, rendre public l'algorithme pour savoir comment il fonctionne.

    @Joey : mais dis-donc, en plus l'agneau c'est une viande hallal. Tu serais pas en train de devenir un peu woke sur les bords ?
    @Génie : comme quoi l'estomac est plus important que le cerveau...

  • Cleaz le 05/10/2021 à 18h52
    Red Tsar
    aujourd'hui à 18h40

    Une bonne partie de tes propositions seront présentes dans la Réglementation Européenne, mais principalement pour les systèmes critiques, et on a vu par exemple la Fondation Abeona qui travaille beaucoup sur ce sujet.
    De nombreux professionnels du domaine se réunissent pour aussi travailler sur des standards, dans l'utilisation des modèles d'IA, y compris des grosses boites (je fais partie d'une association qui travaille sur ces sujets).
    Mais ce n'est vraiment pas ds sujets simples, si on prend l'équité par exemple il y a au moins 4 définitions différentes, qui vont même à l'encontre l'un de l'autre.

  • Red Tsar le 05/10/2021 à 19h16
    Tant mieux et je ne doute pas que les spécialistes aient d'autres parades en tête et qu'il y ait des gens de bonne volonté. D'ailleurs, l'un des ouvrages de Cathy O'Neil a été préfacé par Cédric Villani alors qu'il était au gouvernement (à vérifier quand même). Mais deux questions :
    - est-ce qu'il y a vraiment une obligation de publier les algorithmes (point le plus crucial à mon sens) ? Sur le cas de Parcoursup, par exemple, le Ministère a renâclé et fini par en lâcher des bouts, mais pas la totalité, il me semble.
    - c'est quoi un "système critique" ?

  • Red Tsar le 05/10/2021 à 20h45
    Ah, et j'en profite. Du coup, les sites marchands (Amazon, Spotify...) doivent aussi publier leurs algorithmes ?

  • Cleaz le 06/10/2021 à 10h21
    La réglementation européenne va mettre du temps à être mise en place. Si c'est comme pour la RGPD, on en a pour quelques années.

    La réglementation prévoit en fait différent niveaux de risques :

    - Les risques inacceptables : Les systèmes d'IA considérés comme une menace évidente pour la sécurité, les moyens de subsistance et les droits des personnes seront interdits. Il s'agit notamment des systèmes ou applications d'IA qui manipulent le comportement humain pour priver les utilisateurs de leur libre arbitre (par exemple, des jouets utilisant une assistance vocale incitant des mineurs à avoir un comportement dangereux, les dark patterns...) et des systèmes qui permettent la notation sociale par les États. -> Difficile de dire ce qui va rentrer réellement dedans.

    - Les risques élevés : là dedans on va retrouver autant les systèmes qui sont en charge de vérifier la validité des documents, l'évaluation de crédit, la santé, etc... --> la dessus, il est demandé un haut niveau de standards sur les jeux de donnés, la documentation, les moyens mis en place contre les biais... il ne semble pas pour ces systèmes demandés de publier les algorithmes, mais on leur demande un maximum de transparence, de bénéficier de supervision humaine, etc...

    - Les risques limités : c'est par exemple les chatbots où l'utilisateur doit être informé qu'il st face à un IA.

    - Ls risques minimes : C'est les jeux vidéos par exemple ou les filtres anti-spams où aucune obligation n'est demandée.

    Au final non Amazon ne va pas publier ses algorithmes, mais va devoir améliorer leur robustesse. Par contre Parcoursup est normalement obligé car il me semble qu'il y a une obligation sur les algorithme utiliser par les administrations.

    On voit qu'au global il commence à y avoir une maturité qui s'élève dans le secteur après des années en mode apprenti sorcier. On peut noter par exemple le travail formidable de la Maif, qui met ses outils d'explicabilité en open source.
    La LNE (l'organisme qui définit tout un tas de normes, par exemple sur comment une balance mesure le poids etc..) a lancé une certification de processus pour l'IA qui est très robuste.
    Bref il y a beaucoup à dire sur l'utilisation des IA actuelles mais il y a un vrai mouvement de fond qui change.