Hello!

bon slrpnk.net a l’air d’être dans les choux alors je lance ce post avec mon compte de secours jlai.lu

Alors je lance cet AMA car ça fait un moment que je bouffe du machine learning à temps plein et pour suivre les news technique, je passe le plus clair de mon temps à lire de l’anglais. Et je trouve qu’en français, ben y a pas grand chose. C’est presque uniquement du discours dystopique mal informé.

Rien sur la recherche sur l’alignement, rien sur les modèles open source (condition sine qua non pour que ça se passe bien), rien sur les évolutions sociales positives que ça peut amener.

On parle juste de OpenAI, Google et Musk qui ne sont que quelques arbres malades d’une forêt bien plus grande.

Perso ça va faire 5 ans que je fais du deep learning professionnellement. J’ai travaillé pour Skymind, qui développait deeplearning4j. Ça vous dira rien, c’est un projet plus ou moins mort, mais c’était une tentative de faire un framework alternatif avant que tout le monde passe à pytorch. Puis je suis devenu principalement utilisateur des gros modèles entraînés par d’autres.

J’ai travaillé sur les modèles de vision au départ et maintenant presque exclusivement sur des modèles de langage. J’ai réussi à passer au 4/5e l’année dernière pour me consacrer aussi avec le fablab local à de la robotique open hardware (où bien sur j’utilise des modèles de deep learning pour la vision).

Ça fait plus de 20 ans que j’ai réalisé que l’IA a le potentiel de changer le monde pour le mieux, c’est pas par hasard que j’ai essayé de m’orienter le plus possible là dedans et ça me fait mal au cœur de voir tant de gens croire que notre seul but est d’aider Sam Altman à se faire quelques milliards de plus, qui ne voient pas les capacités de transformation de cette tech.

J’ai déjà donné quelques avis en anglais pour éviter le “doomism” dans des romans de SF (https://slrpnk.net/post/6100538) mais le faire dans ma langue natale ferait du bien!

Et, si, le titre est correct, ça me fait 6/5 de boulot, mais quand on aime on ne compte pas!

Voila, je préférerais qu’on reste sur ces thèmes mais AMA anyway!

  • pseudo@jlai.lu
    link
    fedilink
    Français
    arrow-up
    2
    ·
    edit-2
    7 months ago

    Des ressources français, anglais ou autre pour développer ce côté math-théorie ? Pour le côte pratique, il y en a plein YouTube (^_^)

    Merci, tant que j’y suis, pour tes réponses. Je lis toutes même quand je ne répond pas forcément.

    • keepthepace_@jlai.luOP
      link
      fedilink
      Français
      arrow-up
      3
      ·
      7 months ago

      Alors la théorie je l’ai beaucoup faite via des articles de blog de type <notion> explained. “Layer normalization explained”, “BERT explained”. Il y a quelques publis qui sont intéressantes à lire mais sur les technos qui ont plus d’un an, une bonne explication sur un blog aidera à aller au but et ajoutera en plus des infos sur l’utilisation actuelle de cette tech.

      Les choses à comprendre:

      • La descente de gradient, c’est la base de tout
      • Le perceptron multicouche, le layer le plus simple
      • Le rôle des optimizers
      • Les différentes “couches”:
        • Full connected layer (c’est la même chose qu’un perceptron)
        • Convolution
        • Softmax (techniquement une fonction d’activation mais elle est importante)
        • Normalisation
        • Dropout
        • Attention
        • Maxpool (ça s’utilise encore ça?)
      • Dans les LLMs, comprendre les tokenizers
      • Dans la génération de media, comprendre les modèles de diffusion et les GAN

      Ah, et tu croiseras probablement des bayesiens à un moment dans cette exploration. Ils vont te parler de “priors” de fonction de distribution, tout exprimer sous forme de proba… Je blague un peu en disant que c’est une secte à part, mais c’est principalement une différence de vocabulaire: ils voient tout sous le prisme de la théorie bayesienne que (personnellement) je trouve qu’il font rentrer au chausse-pied en compliquant des notions simples. Mais je le dis pas trop fort, ça vire souvent à la guerre de religion sinon :-)

      • pseudo@jlai.lu
        link
        fedilink
        Français
        arrow-up
        3
        ·
        7 months ago

        De mon humble position d’étudiant n’ayant pas compris la moitié de ce que m’ont expliqué mes profs, les bayésianistes et les fréquentistes disent la même chose mais le formulent différemment. Même si la formulation des bayésianistes fait apparaître des stat partout, ça revient au même à la fin et le conflit bayésianistes/fréquentistes et le même que pain-au-chocolat/chocolatine.

        Merci pour la liste, elle me sera très utile.

        • flyos@jlai.lu
          link
          fedilink
          Français
          arrow-up
          2
          ·
          7 months ago

          C’est pas complètement faux si tu t’en tiens aux probas, mais c’est quand même plus compliqué que ça, c’est pas juste un débat sémantique.

          D’un point de vue statistique, y a une zone grise entre les deux points de vue, mais il y a aussi des approches exclusives à l’une ou l’autre perspective et cette différence d’algorithme explique aussi l’essor moderne des stats bayésiennes: le MCMC a permis de faire tourner des modèles très compliqués à faire converger en maximum de vraisemblance. L’ABC permet même de se passer de vraisemblance tout court!

          D’un point de vue épistémique, c’est quand même deux points de vue très difficile à réconcilier, et ça a une importance sur comment on fait de la science (les statistiques, c’est un peu de l’épistémo pratique!).

      • pseudo@jlai.lu
        link
        fedilink
        Français
        arrow-up
        3
        ·
        7 months ago

        J’ai retrouvé une playlist francophone sur le machine learning de @HugoLarochelle@YouTube.com qui m’avait bien aidé à l’époque. Il a fait apparemment aussi le traitement automatique du language.
        Malheureusement, sa playlist sur les réseaux de neurones est dans la langue de Shakespeare.