Site icon Blog ARC Optimizer

Un guide d'apprentissage automatique pour les humains moyens


L'apprentissage automatique (ML) a connu une croissance constante dans le monde entier. Ses implications s'étendent de petites apparemment victoires inconséquentes à découvertes révolutionnaires . La communauté SEO est pas d'exception . Une compréhension et une intuition de l'apprentissage automatique peuvent nous aider à comprendre les défis et les solutions auxquels sont confrontés les ingénieurs de Google, tout en ouvrant notre esprit aux implications plus larges de ML.

Les avantages d'acquérir une compréhension générale de l'apprentissage automatique incluent:

  • Acquérir de l'empathie pour les ingénieurs, qui tentent en fin de compte d'établir les meilleurs résultats pour les utilisateurs
  • les capacités actuelles et les objectifs des scientifiques
  • Comprendre l'écosystème compétitif et comment les entreprises utilisent l'apprentissage automatique pour obtenir des résultats
  • Se préparer à ce que de nombreux leaders appellent un changement majeur dans notre société ( Andrew Ng se réfère à AI comme "nouvelle électricité" )
  • Comprendre les concepts de base qui apparaissent souvent dans la recherche (cela m'a aidé à comprendre certains concepts qui apparaissent dans Google Brain's Research )
  • Grandir en tant qu'individu et élargir vos horizons (vous pourriez vraiment aimer l'apprentissage automatique!)
  • Quand le code fonctionne et que les données sont produites, c'est un moyen très enrichissant et stimulant sentiment (même si c'est un résultat très humble)

J'ai passé une année à suivre des cours en ligne, à lire des livres et à apprendre à apprendre (en tant que machine). Ce poste est le fruit de ce travail – il couvre 17 ressources d'apprentissage automatique (y compris des cours en ligne, des livres, des guides, des présentations de conférences, etc.) comprenant les ressources d'apprentissage automatique les plus abordables et les plus populaires sur le web. vrai débutant). J'ai également ajouté un résumé de "Si je devais recommencer, comment je l'aborderais".

Cet article ne traite pas du crédit ou des diplômes. Il s'agit de Joes et Joannas qui s'intéressent à l'apprentissage automatique et qui veulent passer leur temps d'apprentissage efficacement. La plupart de ces ressources consommeront plus de 50 heures d'engagement. Personne n'a le temps pour une pénible perte de semaine de travail (surtout quand cela est probablement terminé pendant votre temps personnel). Le but ici est de trouver la ressource qui correspond le mieux à votre style d'apprentissage. J'espère sincèrement que vous trouverez cette recherche utile, et j'encourage les commentaires sur les documents qui s'avèrent les plus utiles (surtout ceux qui ne sont pas inclus)! #HumanLearningMachineLearning


Résumé:

Voici tout ce que vous devez savoir dans un tableau:

* Gratuit, mais il y a le coût d'exécution d'une instance AWS EC2 (~ 70 $ quand j'ai fini, mais j'ai bricolé une tonne et fait un générateur de script Rick et Morty, que j'ai couru de nombreuses époques [rounds] de .. .)


Voici mon programme suggéré:

1. Début (estimé 60 heures)

Commencez avec un contenu plus court ciblant les débutants. Cela vous permettra de comprendre l'essentiel de ce qui se passe avec un minimum de temps.

2. Prêt à s'engager (estimé à 80 heures)

À ce stade, les apprenants comprendraient leur niveau d'intérêt. Continuer avec le contenu axé sur l'application des connaissances pertinentes aussi vite que possible.

3. Élargir vos horizons (estimé à 115 heures)

Si vous avez franchi la dernière section et que vous avez encore faim de plus de connaissances, passez à l'élargissement de vos horizons. Lire du contenu axé sur l'enseignement de l'étendue de l'apprentissage automatique – construire une intuition pour ce que les algorithmes tentent d'accomplir (que ce soit visuel ou mathématique).

Vos prochaines étapes

À ce stade, vous disposez déjà d'instances AWS en cours d'exécution, d'une base mathématique et d'une vue globale de l'apprentissage automatique. C'est votre point de départ pour déterminer ce que vous voulez faire.

Vous devriez être capable de déterminer votre prochaine étape en fonction de votre intérêt, que ce soit en entrant dans les compétitions Kaggle; faire Fast.ai deuxième partie; plongée profonde dans les mathématiques avec Pattern Recognition & Machine Learning par Christopher Bishop ; donner le nouveau cours Deeplearning.ai d'Andrew Ng sur Coursera; en apprendre davantage sur des piles techniques spécifiques (TensorFlow, Scikit-Learn, Keras, Pandas, Numpy, etc.); ou en appliquant l'apprentissage automatique à vos propres problèmes.


Pourquoi est-ce que je recommande ces étapes et ressources?

Je ne suis pas qualifié pour écrire un article sur l'apprentissage automatique. Je n'ai pas de doctorat. J'ai suivi un cours de statistiques au collège, ce qui a marqué le premier moment où j'ai vraiment compris les réactions de «combat ou fuite». Et pour couronner le tout, mes compétences de codage sont terne (au mieux, ce sont des morceaux de code inversé de Stack Overflow). Malgré mes nombreuses lacunes, cette pièce devait être écrite par quelqu'un comme moi, une personne moyenne.

Statistiquement parlant, la plupart d'entre nous sont moyens (ah, la courbe en cloche / distribution gaussienne nous rattrape toujours). Puisque je ne suis pas lié à des sentiments élitistes, je peux être réel avec vous. Vous trouverez ci-dessous un résumé de haut niveau de mes évaluations sur toutes les classes que j'ai suivies, ainsi qu'un plan de la façon dont j'aborderais l'apprentissage automatique si je pouvais recommencer. Cliquez pour développer chaque cours pour la version complète avec des notes.


Revues approfondies des cours de machine learning:

Début

Jason Maye's Machine Learning 101 slidedeck: 2 ans de head-banging, donc tu n'as pas à ↓

Need to Know: Un aperçu de haut niveau stellaire des fondamentaux de l'apprentissage automatique dans un format engageant et visuellement stimulant.

Aimé:

  • Un slidedeck très convivial, engageant et ludique
  • A le potentiel d'enlever une partie de la douleur du processus, en introduisant des concepts de base.
  • Divise le contenu par débutant / besoin de savoir (vert), et intermédiaire / bruit moins utile (spécifiquement pour les débutants) (bleu).
  • Fournit des ressources pour approfondir l'apprentissage automatique.
  • Fournit des personnes supérieures à suivre dans l'apprentissage automatique.

n'a pas aimé:

  • Qu'il n'y en a pas plus! La créativité de Jason, son approche pédagogique visuelle et son sens de l'humour original favorisent l'absorption du matériel.

Maître de conférences:

Jason Mayes :

  • Technologue créatif principal et ingénieur de recherche chez Google
  • Maîtrise en informatique de l'Université de Bristols
  • Note personnelle: Il est également aimable sur Twitter! 🙂

Liens:

Conseils pour regarder:

  • Mettez de côté 2 à 4 heures pour travailler à travers le jeu.
  • Puisqu'il y a une mine de connaissances, référez-vous au besoin (ou en tant que source d'échouement).
  • Identifiez les zones d'intérêt et explorez les ressources fournies

{ML} Recettes avec Josh Gordon 1965

Besoin de savoir: Cette mini-série de vidéos sur YouTube couvre les principes fondamentaux de l'apprentissage automatique avec occasions de faire des exercices.

Aimé:

  • Il est vraiment axé sur les débutants.
    • Ils ne supposent aucune connaissance antérieure
    • Gloss sur des sujets potentiellement complexes pouvant servir de bruit
    • Playlist ~ 2 heures
  • Tournage, audio et présentation de très haute qualité, presque au point où il avait sa propre esthétique
  • Couvre quelques exemples de scikit-learn et de TensorFlow, qui se sont sentis modernes et pratiques.
  • Josh Gordon était un conférencier attachant.

N'a pas aimé:

  • Je n'ai pas pu obtenir Dockers sous Windows (gestionnaire de paquets suggéré). Ce n'était pas un gros problème, puisque j'avais déjà ma configuration AWS à ce stade; Cependant, un peu décevant car il a rendu impossible de suivre certaines étapes exactement.
    • Problème : Chaque fois que j'essayais de télécharger (sur une période de deux semaines), le fichier .exe commençait à tourner de manière récursive jusqu'à ce que ma mémoire soit épuisée, mon ordinateur tombe en panne ou je fermais ordinateur vers le bas. J'ai envoyé ceci sur le compte Twitter de Docker en vain.

Maître de conférences:

Josh Gordon :

  • Promoteur Promoteur chez TensorFlow chez Google
  • Dirige le plaidoyer en Apprentissage Automatique chez Google
  • Membre du Conseil Consultatif Udacity AI & Data
  • Master en Informatique de l'Université Columbia

Liens:

Conseils pour regarder:

  • La playlist est courte (seulement ~ 1.5 heures d'écran). Cependant, il peut être un peu rapide (surtout si vous aimez imiter les exemples), alors mettez 3-4 heures à jouer avec des exemples et laissez du temps pour l'installation, la pause et le suivi.

Le cours accéléré Machine Learning de Google avec les API TensorFlow ↓

Le besoin de savoir: Un cours accéléré de recherche Google sur l'apprentissage automatique interactif et doté de son propre système de codage intégré !

Aimé:

  • Différents formats d'apprentissage: vidéo de haute qualité (avec possibilité d'ajuster la vitesse, sous-titrage codé), lectures, quiz (avec explications), visuels (y compris tableau blanc), composants interactifs / aires de jeux, exercices en laboratoire navigateur (aucune configuration requise!))
  • Non-intimidant
    • Une de mes citations préférées: "Vous n'avez pas besoin de comprendre les maths pour pouvoir regarder l'interprétation graphique."
    • Décomposé en sections digestibles
    • Présente les termes clés

n'a pas aimé:

Enseignants:

Plusieurs chercheurs Google ont participé à ce cours, notamment:

  • Peter Norvig
    • Directeur de la recherche chez Google Inc.
    • Auparavant, il dirigeait le groupe des algorithmes de recherche de base de Google.
    • Il est co-auteur de Intelligence artificielle: une approche moderne
  • D. Sculley
    • Ingénieur logiciel sénior chez Google
    • Papiers récompensé KDD
    • Travaux sur des systèmes ML à grande échelle pour la publicité en ligne
    • Fait partie d'un article de recherche ML sur optimisant les cookies aux pépites de chocolat
    • Selon son site personnel, il préfère passer par "D".
  • Cassandre Xia
  • Maya Gupta
    • Leads Equipe R & D Glassbox Machine Learning chez Google
    • Professeur Associé de Génie Electrique à l'Université de Washington (2003-2012)
    • En 2007, Gupta a reçu le prix PECASE du Président George Bush pour son travail dans la classification des signaux incertains (par exemple aléatoires)
    • Gupta dirige également Artifact Puzzles le deuxième plus grand fabricant américain de casse-tête en bois
  • Sally Goldman
    • Chercheur scientifique chez Google
    • Co-auteur d'un guide pratique des structures de données et des algorithmes utilisant Java
    • De nombreuses revues, classes enseignées à l'université de Washington et contributions à la communauté ML

Liens:

Conseils pour faire:
Travailler activement à travers le terrain de jeux et les exercices de codage

Podcast du Guide d'apprentissage machine d'OCDevel ↓

Besoin de savoir: Ce podcast se concentre sur les fondamentaux de l'apprentissage automatique, y compris l'intuition de base, les algorithmes, langues et cadres. Il comprend également des références pour en savoir plus sur le sujet de chaque épisode.

Aimé:

  • Idéal pour les voyages (quand on voyageait une tonne, c'était une écoute facile).
  • Le podcast rend l'apprentissage automatique amusant avec des analogies intéressantes et convaincantes.
  • Tyler est un grand fan du Cours Coursera d'Andrew Ng et il passe très bien en revue les concepts du cours de Coursera, de sorte que les deux se joignent bien.
  • Couvre les ressources canoniques pour en apprendre plus sur un sujet particulier.
    • Certains cours étaient plus basés sur la théorie; tout est intéressant, mais pas pratique.
    • En raison d'un financement limité, le projet est un peu lent à mettre à jour et compte moins de 30 épisodes.

    Podcaster:

    Tyler Renelle :

    • Ingénieur en apprentissage automatique axé sur les séries temporelles et le renforcement
    • Historique en JavaScript full-stack, 10 ans web et mobile
    • Créateur d'HabitRPG, une application qui traite les habitudes comme un jeu RPG


    Conseils pour l'écoute:

    • Écoutez votre parcours pour aider à consolider la compréhension des sujets.
    • Sautez les épisodes 1, 3, 16, 21 et 26 (à moins que leurs sujets ne vous intéressent et ne vous inspirent!).

Kaggle Machine Learning Track (Leçon 1) ↓

Besoin de savoir: Un laboratoire de code simple qui couvre les bases mêmes de l'apprentissage automatique avec scikit-learn et Panda grâce à l'application des exemples sur un autre ensemble de Les données.

Aimé:

  • Une forme d'apprentissage plus active
  • Un laboratoire de code engageant qui encourage les participants à appliquer leurs connaissances.
  • Cette piste propose un cahier Python intégré sur Kaggle avec tous les fichiers d'entrée inclus. Cela a supprimé tous les problèmes d'installation / installation.
    • Note: C'est un peu différent du bloc-notes de Jupyter (par exemple, il faut cliquer dans une cellule pour ajouter une autre cellule).
  • Chaque leçon est courte, ce qui fait que la leçon entière passe très vite.

Pas aimé (e):

  • L'écriture de la première leçon n'indiquait pas au départ qu'il fallait appliquer les connaissances de la leçon à leur cahier d'exercices.
    • Ce n'était pas une grosse affaire, mais quand j'ai commencé à référencer des fichiers dans la leçon, j'ai dû plonger dans les fichiers de mon classeur pour découvrir qu'ils n'existaient pas, seulement pour réaliser que la connaissance était censée être appliquée et non transcrit.

Maître de conférences:

Dan Becker :

  • Scientifique en données chez Kaggle
  • Ingénieur en informatique, doctorat en économétrie
  • Consultant en science des données supervisé pour six compagnies du Fortune 100
  • Contribué aux bibliothèques Keras et Tensorflow
  • Terminé 2ème (sur 1353 équipes ) dans le cadre d'un concours d'exploration de données sur le patrimoine pour la santé de 3 millions de dollars
  • Participe à des ateliers d'apprentissage en profondeur lors d'événements et de conférences


Conseils pour faire:

  • Lisez les exercices et appliquez-les à votre ensemble de données.
  • Essayez la leçon 2, qui couvre des sujets plus complexes / abstraits (remarque: cette seconde a pris un peu plus de temps à travailler).

Fast.ai (partie 1 de 2) ↓

Besoin de savoir: Mains-vers le bas la forme la plus engageante et active d'apprentissage ML. La source que je recommanderais le plus à tout le monde (bien que le plan de formation aide à construire ce cours). Ce cours traite de l'apprentissage par le codage. C'est le seul cours que j'ai commencé à vraiment voir les mécanismes pratiques commencer à se réunir. Il s'agit d'appliquer les solutions les plus pratiques aux problèmes les plus courants (tout en développant une intuition pour ces solutions).

Aimé:

  • Philosophie du cours:
    • Approche d'apprentissage actif
      • "Allez dans le monde et comprenez la mécanique sous-jacente (de l'apprentissage automatique en faisant)."
    • Contre-culture à l'exclusivité du domaine de l'apprentissage automatique, en mettant l'accent sur l'inclusion.
      • "Faisons la merde qui compte pour les gens aussi vite que possible."
  • Approche hautement pragmatique avec des outils actuellement utilisés (ordinateurs portables Jupyter, scikit-learn, Keras, AWS, etc.).
  • Montrez un processus de bout en bout que vous avez terminé et joué avec dans un environnement de développement.
  • Math est impliqué, mais n'est pas prohibitif. Les fichiers Excel ont aidé à consolider l'information / interagir avec l'information d'une manière différente, et Jeremy passe beaucoup de temps à récapituler les concepts confus.
  • Ensemble étonnant de ressources d'apprentissage qui permettent différents styles d'apprentissage, y compris:
    • Cours de vidéo
    • Notes
    • Carnets de Jupyter
    • Affectations
    • Forums très actifs
    • Ressources sur Stackoverflow
    • Lectures / Ressources
      • Jeremy fait souvent référence à des textes académiques populaires
    • Le discours TEDx de Jeremy à Bruxelles
  • Jeremy pousse vraiment l'un à faire plus et à faire l'effort en enseignant des problèmes intéressants et en s'engageant à les résoudre.
  • C'est un énorme engagement de temps; cependant, ça vaut le coup.
  • Tous les bénéfices du cours sont donnés.

N'a pas aimé:

  • Aperçu couvre leur approche de l'apprentissage (évidemment, je suis un fan!). Si vous buvez déjà le Kool-aid, passez le pas.
  • J'ai lutté pendant environ cinq heures dans la configuration d'AWS (vidéo de 13 minutes) (cependant, c'était si bon quand il était opérationnel!) [19659006] En raison de son caractère pratique et de sa concentration sur les solutions utilisées aujourd'hui pour résoudre les types de problèmes les plus répandus (reconnaissance d'image, génération de texte, etc.), il manque de sujets d'apprentissage machine.


Jeremy Howard :

  • Chercheur émérite à l'Université de San Francisco
  • Professeur à l'Université Singularity
  • Jeune leader mondial au Forum économique mondial
  • Fondateur d'Enlitic (la première entreprise à appliquer l'apprentissage profond à la médecine) [19659006] Ancien président et scientifique en chef de la plateforme de science des données Kaggle

Rachel Thomas :

Liens:

Conseils pour faire:

  • Fixez des attentes avec vous-même que l'installation va probablement prendre quelques heures.
  • Préparez-vous à passer environ 70 heures pour ce cours (ça vaut le coup).
  • N'oubliez pas de fermer votre instance AWS.
  • Équilibrer les connaissances en apprentissage automatique avec un cours plus large
  • Envisager d'utiliser la deuxième partie du programme Fast.ai

Apprentissage automatique avec Scikit-Learn et TensorFlow: Concepts, outils, et Techniques pour Construire des Systèmes Intelligents ↓

Besoin de Savoir: Ce livre est un best-seller Amazon pour une raison. Il couvre beaucoup de terrain rapidement, permet aux lecteurs de passer à travers un problème d'apprentissage automatique par le chapitre deux, et contient des compétences pratiques d'apprentissage de la machine à jour.

Aimé:

  • Book contient une introduction étonnante à l'apprentissage automatique qui fournit rapidement une vision rapide de l'écosystème d'apprentissage automatique.
  • Le chapitre 2 guide immédiatement le lecteur à travers un problème d'apprentissage automatique de bout en bout.
  • Immédiatement après, Aurélien pousse un utilisateur à tenter d'appliquer cette solution à un autre problème, ce qui a été très stimulant.
  • Il y a des questions de révision à la fin de chaque chapitre pour s'assurer que vous avez saisi le contenu dans le chapitre et pousser le lecteur à explorer plus.
  • Une fois l'installation terminée, il était facile de suivre et tout le code est disponible sur GitHub.
  • Les chapitres 11-14 étaient très difficiles à lire; Cependant, ils étaient une excellente référence lorsque vous travaillez sur Fast.ai.
  • Contient de puissantes analogies
  • Les introductions de chaque chapitre étaient très utiles et mettaient tout en contexte. Cet apprentissage général à spécifique était très utile.

n'a pas aimé:

  • L'installation était une source commune de problèmes au début de mon voyage; le texte a glissé dessus. J'ai senti que la frustration que la plupart des gens éprouvent à l'installation aurait dû être traitée avec plus de ressources.

Writer:

Aurélien Géron :

  • A dirigé l'équipe de classification vidéo YouTube de 2013 à 2016
  • Actuellement consultant en apprentissage machine
  • Fondateur et CTO de Wifirst et Polyconseil
  • Livres techniques publiés (sur les architectures C ++, Wi-Fi et Internet) [19659041] Liens:

    Conseils d'utilisation:

    • Obtenez un ami avec l'expérience Python pour aider à l'installation.
    • Lisez attentivement les introductions à chaque chapitre, lisez le chapitre (faites attention au code), relisez les questions à la fin (mettez en évidence toute réponse dans le texte), faites une copie du GitHub d'Aurélien et assurez-vous que tout fonctionne setup, retapez les cahiers, allez à Kaggle et essayez d'autres jeux de données.

Élargir vos horizons

Udacity: introduction à l'apprentissage automatique (Kate / Sebastian) ↓

Besoin de savoir: Un cours qui couvre une gamme de sujets d'apprentissage automatique, soutient la construction de l'intuition via la visualisation et des exemples simples, offre des défis de codage, et un certificat (à la fin d'un projet final). Le plus grand défi de ce cours est de combler le fossé entre les conférences et les exercices de codage.

Aimé:

  • Concentrez-vous sur le développement d'une intuition visuelle sur ce que chaque modèle essaie d'accomplir.
  • Cette approche mathématique d'apprentissage visuel est très utile.
  • Couvrir une grande variété de modèles et de bases de l'apprentissage automatique
  • En termes de présentation du concept, il y avait beaucoup de main-tenue (que j'ai complètement apprécié!).
  • Beaucoup de gens l'ont fait formation, afin que leurs comptes GitHub puissent être utilisés comme référence pour les mini-projets.
  • Katie note activement la documentation et suggère où les téléspectateurs peuvent en apprendre davantage sur le matériel de référence


  • L'ensemble de la prise en main conceptuelle dans les leçons est un contraste frappant avec les défis de l'installation, des exercices de codage et des mini-projets.
    • C'est le premier cours commencé et les instructions limitées sur la mise en place de l'environnement et de nombreuses tentatives ratées m'ont fait craquer au moins une poignée de fois.
  • Les mini-projets sont intimidants.
  • Du code supplémentaire est ajouté pour soutenir les téléspectateurs; cependant, c'est fait avec peu de reconnaissance quant à ce qu'il fait réellement. Cela a rendu l'apprentissage un peu plus difficile.


Caitlin (Katie) Malone :

  • Directeur de la recherche et du développement des sciences des données chez Civis Analytics
  • Stanford PhD en physique des particules expérimentales
  • Stagiaire chez Udacity en été 2014
  • Chercheur au Laboratoire national des accélérateurs du SLAC
  • Podcaster avec Ben Jaffe (actuellement Facebook UI Engineer et un passionné de musique) sur un podcast d'apprentissage automatique Digressions linéaires (plus de 100 épisodes)

Sebastian Thrun :

  • PDG de la Kitty Hawk Corporation
  • Président et co-fondateur d'Udacity
    • Une de mes citations préférées de Sebastian: "Je me suis dit que je pouvais être chez Google et construire une voiture autonome, ou que je pourrais enseigner à 10.000 élèves comment construire des voitures autonomes."
  • Ancien VP Google
    • Fondée Google X
    • A dirigé le développement du véhicule robotique Stanley
  • Professeur d'informatique à l'université de Stanford
  • Ancien professeur à l'université Carnegie Mellon.

Liens:

Conseils pour regarder:

  • Obtenez un ami pour vous aider à configurer votre environnement.
  • Imprimer les instructions du mini-projet pour cocher chaque étape.

Cours d'apprentissage en machine de Coursera d'Andrew Ng ↓

Besoin de savoir: Le cours d'Andrew Ng Coursera est le cours d'apprentissage en ligne le plus référencé. Il couvre un large éventail de sujets fondamentaux et persistants axés sur la construction de l'intuition mathématique derrière les modèles d'apprentissage automatique. En outre, on peut soumettre des devoirs et gagner une note gratuitement. Si vous souhaitez obtenir un certificat, vous pouvez vous inscrire ou demander une aide financière.

Aimé:

  • Ce cours a un haut niveau de crédibilité.
  • Présente toute la terminologie et le jargon nécessaires à l'apprentissage automatique
  • Contient une approche très classique de l'apprentissage par l'apprentissage automatique avec un niveau élevé de concentration mathématique
  • et après chaque leçon, soutien à la compréhension et à l'apprentissage global.
  • Les sessions pour le cours sont flexibles, l'option de passer à une section différente est toujours disponible.

n'a pas aimé:

  • La notation mathématique était parfois difficile à traiter
  • Le contenu était un peu daté et non pragmatique. Par exemple, la principale concentration était MATLAB et Octave par rapport à des langues et des ressources plus modernes.
  • La qualité vidéo était inférieure à la moyenne et pouvait utiliser un rafraîchissement.


Andrew Ng :

  • Professeur auxiliaire, Stanford University (axé sur l'IA, l'apprentissage automatique et l'apprentissage profond)
  • Co-fondateur de Coursera
  • Ancien chef de Baidu AI Group
  • Fondateur et directeur de Google Brain (apprentissage en profondeur) )
  • Ancien directeur du Stanford AI Lab
  • Président du conseil d'administration de Woebot (un robot d'apprentissage automatique axé sur la thérapie cognitivo-comportementale)


Conseils pour regarder:

  • Soyez discipliné en mettant de côté le calendrier (même si c'est seulement 15 minutes par jour) pour aider à passer en revue certains des concepts les plus ennuyeux.
  • Ne faites pas ce cours d'abord, parce que c'est intimidant, cela demande un engagement de temps important et ce n'est pas une expérience très énergisante.

Possibilités supplémentaires d'apprentissage automatique

iPullRank Machine Learning Guide ↓

Besoin de savoir: Un e-book d'apprentissage machine destiné aux marketeurs.

Aimé:

  • Destiné aux spécialistes du marketing et appliqué à la recherche organique
  • Couvre une variété de sujets d'apprentissage automatique.
  • Quelques bons exemples, y compris les erreurs du monde réel.
  • Donne quelques outils pratiques pour les scientifiques non-data (y compris : MonkeyLearn et Orange )
    • J'ai trouvé Orange très amusant. Il a lutté avec des ensembles de données plus volumineux; Cependant, il a une interface très visuelle qui est plus conviviale et offre la possibilité de montrer des histoires assez convaincantes.

n'a pas aimé:

  • Possibilité de diviser davantage le contenu avec des images pertinentes – le contenu était très dense.


Équipe iPullRank (incluant Mike King):

  • Mike King a quelques diapositives sur les bases de l'apprentissage de la machine et de l'IA
  • iPullRank a quelques scientifiques de données sur le personnel

Liens:

Conseils pour la lecture:

  • Lisez les chapitres 1 à 6 et le reste en fonction de l'intérêt personnel

Review Google PhD ↓

Besoin de savoir: Une présentation de deux heures de la conférence IO 2017 de Google qui obtient 99% de précision sur l'ensemble de données MNIST (un ensemble de données célèbre contenant un tas de nombres manuscrits, que la machine doit apprendre à identifier les nombres).

Aimé:

  • Cette conversation m'a semblé très moderne, couvrant le tranchant.
  • J'ai trouvé cela très complémentaire à Fast.ai, car elle couvrait des sujets similaires (par ex. ReLu, CNN, RNN, etc.)
  • Incroyable visuels qui aident à tout mettre en contexte.

n'a pas aimé:

  • La présentation n'est qu'une courte solution de conférence et non une vue complète de l'apprentissage automatique.
  • Aussi, une forme passive d'apprentissage.


Martin Görner :

  • Developer Relations, Google (depuis 2011)
  • Lancement de Mobipocket, une startup qui deviendra plus tard la partie logicielle du Kindle d'Amazon et de ses variantes mobiles

Liens:

Conseils pour regarder:

  • Google des concepts avec lesquels vous n'êtes pas familier.
  • Prenez votre temps avec celui-ci; 2 heures de temps d'écran ne compte pas tout le googling et le temps de traitement pour celui-ci.

Caltech Machine Learning iTunes ↓

Besoin de savoir: Si les mathématiques sont votre truc, ce cours fait un travail stellaire de construire l'intuition mathématique derrière de nombreux modèles d'apprentissage automatique. Dr. Abu-Mostafa est un raconteur, il inclut des visualisations utiles, des exemples pertinents du monde réel et des analogies convaincantes.

Aimé:

  • Tout d'abord, il s'agit d'un vrai cours Caltech, ce qui signifie qu'il ne s'agit pas d'une version édulcorée et qu'il contient des concepts fondamentaux essentiels à la compréhension de la mécanique de l'apprentissage automatique
  • . être utile pour l'apprentissage sur le pouce.
  • Dr. Abu-Mostafa est un orateur talentueux, ce qui rend les 27 heures passées à écouter beaucoup plus facilement!
  • Dr. Abu-Mostafa propose des exemples concrets et des analogies qui rendent le contenu plus accessible.
    • À titre d'exemple, il demande aux étudiants: «Pourquoi est-ce que je vous donne des examens de pratique et ne vous donne pas seulement l'examen final? comme illustration de la raison pour laquelle un ensemble de tests est utile. S'il devait simplement donner la finale aux élèves, ils mémoriseraient simplement les réponses (c.-à-d., Ils s'adapteraient aux données) et n'apprendraient pas vraiment le matériel. La finale est un test pour montrer combien les élèves apprennent.
  • La dernière demi-heure de la classe est toujours une période de questions, où les étudiants peuvent poser des questions. Leurs questions ont été utiles pour comprendre le sujet plus en profondeur.
  • La qualité vidéo et audio était forte tout au long. Il y avait quelques fois où je ne pouvais pas comprendre une question dans le Q & A, mais globalement très fort.
  • Ce cours est conçu pour construire l'intuition mathématique de ce qui se passe sous le capot de modèles spécifiques d'apprentissage automatique.
    • Attention : Le Dr Abu-Mostafa utilise la notation mathématique, mais elle est différente de celle d'Andrew Ng (par exemple, theta = w).
  • La conférence finale a été la plus utile, car elle a rassemblé beaucoup de pièces du puzzle conceptuel. Le cours sur les réseaux de neurones a suivi de près


  • Bien qu'il contienne principalement du contenu à feuilles persistantes, publié en 2012, il pourrait utiliser un rafraîchissement.
  • Forme d'apprentissage très passive, car elle n'était pas immédiatement utilisable.

Enseignant:

Dr. Yasser S. Abu-Mostafa :

  • Professeur de génie électrique et informatique à l'Institut de technologie de Californie
  • Président de Machine Learning Consultants LLC
  • Membre de plusieurs conseils consultatifs scientifiques
  • Il a été consultant technique en apprentissage automatique pendant plusieurs années. entreprises (y compris Citibank).
  • Articles multiples dans Scientific American

Liens:

Conseils pour regarder:

  • Consider listening to the last lesson first, as it pulls together the course overall conceptually. The map of the course, below, was particularly useful to organizing the information taught in the courses.

Image source: http://work.caltech.edu/slides/slides18.pdf

"Pattern Recognition & Machine Learning" by Christopher Bishop ↓

Need to Know: This is a very popular college-level machine learning textbook. I've heard it likened to a bible for machine learning. However, after spending a month trying to tackle the first few chapters, I gave up. It was too much math and pre-requisites to tackle (even with a multitude of Google sessions).

Loved:

  • The text of choice for many major universities, so if you can make it through this text and understand all of the concepts, you're probably in a very good position.
  • I appreciated the history aside sections, where Bishop talked about influential people and their career accomplishments in statistics and machine learning.
  • Despite being a highly mathematically text, the textbook actually has some pretty visually intuitive imagery.

Disliked:

  • I couldn't make it through the text, which was a bit frustrating. The statistics and mathematical notation (which is probably very benign for a student in this topic) were too much for me.
  • The sunk cost was pretty high here (~$75).

Writer:

Christopher Bishop:

  • Laboratory Director at Microsoft Research Cambridge
  • Professor of Computer Science at the University of Edinburgh
  • Fellow of Darwin College, Cambridge
  • PhD in Theoretical Physics from the University of Edinburgh

Links:

Tips on Reading:

  • Don't start your machine learning journey with this book.
  • Get a friend in statistics to walk you through anything complicated (my plan is to get a mentor in statistics).
  • Consider taking a (free) online statistics course (Khan Academy and Udacity both have some great content on statistics, calculus, math, and data analysis).

Machine Learning: Hands-on for Developers and Technical Professionals ↓

Need to Know: A fun, non-intimidating end-to-end launching pad/whistle stop for machine learning in action.

Loved:

  • Talks about practical issues that many other sources didn't really address (e.g. data-cleansing).
  • Covered the basics of machine learning in a non-intimidating way.
    • Offers abridged, consolidated versions of the content.
    • Added fun anecdotes that makes it easier to read.
    • Overall the writer has a great sense of humor.
    • Writer talks to the reader as if they're a real human being (i.e., doesn't expect you to go out and do proofs; acknowledges the challenge of certain concepts).
  • Covers a wide variety of topics.
  • Because it was well-written, I flew through the book (even though it's about ~300 pages).

Disliked:

Writer:

Jason Bell:

  • Technical architect, lecturer, and startup consultant
  • Data Engineer at MastodonC
  • Former section editor for Java Developer's Journal
  • Former writer on IBM DeveloperWorks

Links:

Tips on Reading:

  • Download and explore Weka's interface beforehand.
  • Give some of the exercises a shot.

Introduction to Machine Learning with Python: A Guide for Data Scientists ↓

Need to Know: This was a was a well-written piece on machine learning, making it a quick read.

Loved:

  • Quick, smooth read.
  • Easy-to-follow code examples.
  • The first few chapters served as a stellar introduction to the basics of machine learning.
  • Contain subtle jokes that add a bit of fun.
  • Tip to use the Python package manager Anaconda with Jupyter Notebooks was helpful.

Disliked:

  • Once again, installation was a challenge.
  • The "mglearn" utility library threw me for a loop. I had to reread the first few chapters before I figured out it was support for the book.
  • Although I liked the book, I didn't love it. Overall it just missed the "empowering" mark.

Writers:

Andreas C. Müller:

  • PhD in Computer Science
  • Lecturer at the Data Science Institute at Columbia University
  • Worked at the NYU Center for Data Science on open source and open science
  • Former Machine Learning Scientist at Amazon
  • Speaks often on Machine Learning and scikit-learn (a popular machine learning library)
  • And he makes some pretty incredibly useful graphics, such as this scikit-learn cheat sheet:

Image source: http://peekaboo-vision.blogspot.com/2013/01/machin…

Sarah Guido:

  • Former senior data scientist at Mashable
  • Lead data scientist at Bitly
  • 2018 SciPy Conference Data Science track co-chair

Links:

Tips on Reading:

  • Type out code examples.
  • Beware of the "mglearn" utility library.

Udacity: Machine Learning by Georgia Tech ↓

Need to Know: A mix between an online learning experience and a university machine learning teaching approach. The lecturers are fun, but the course still fell a bit short in terms of active learning.

Loved:

  • This class is offered as CS7641 at Georgia Tech, where it is a part of the Online Masters Degree. Although taking this course here will not earn credit towards the OMS degree, it's still a non-watered-down college teaching philosophy approach.
  • Covers a wide variety of topics, many of which reminded me of the Caltech course (including: VC Dimension versus Bayesian, Occam's razor, etc.)
  • Discusses Markov Decision Chains, which is something that didn't really come up in many other introductory machine learning course, but they are referenced within Google patents.
  • The lecturers have a great dynamic, are wicked smart, and displayed a great sense of (nerd) humor, which make the topics less intimidating.
  • The course has quizzes, which give the course a slight amount of interaction.

Disliked:

  • Some videos were very long, which made the content a bit harder to digest.
  • The course overall was very time consuming.
  • Despite the quizzes, the course was a very passive form of learning with no assignments and little coding.
  • Many videos started with a bunch of content already written out. Having the content written out was probably a big time-saver, but it was also a bit jarring for a viewer to see so much information all at once, while also trying to listen.
  • It's vital to pay very close attention to notation, which compounds in complexity quickly.
  • Tablet version didn't function flawlessly: some was missing content (which I had to mark down and review on a desktop), the app would crash randomly on the tablet, and sometimes the audio wouldn't start.
  • There were no subtitles available on tablet, which I found not only to be a major accessibility blunder, but also made it harder for me to process (since I'm not an audio learner).

Lecturer:

Michael Littman:

  • Professor of Computer Science at Brown University.
  • Was granted a patent for one of the earliest systems for Cross-language information retrieval
  • Perhaps the most interesting man in the world:
    • Been in two TEDx talks
    • During his time at Duke, he worked on an automated crossword solver (PROVERB)
    • Has a Family Quartet
    • He has appeared in a TurboTax commercial

Charles Isbell:

  • Professor and Executive Associate Dean at School of Interactive Computing at Georgia Tech
  • Focus on statistical machine learning and "interactive" artificial intelligence.

Links:

Tips on Watching:

  • Pick specific topics of interest and focusing on those lessons.

Andrew Ng's Stanford's Machine Learning iTunes ↓

Need to Know: A non-watered-down Stanford course. It's outdated (filmed in 2008), video/audio are a bit poor, and most links online now point towards the Coursera course. Although the idea of watching a Stanford course was energizing for the first few courses, it became dreadfully boring. I made it to course six before calling it.

Loved:

  • Designed for students, so you know you're not missing out on anything.
  • This course provides a deeper study into the mathematical and theoretical foundation behind machine learning to the point that the students could create their own machine learning algorithms. This isn't necessarily very practical for the everyday machine learning user.
  • Has some powerful real-world examples (although they're outdated).
  • There is something about the kinesthetic nature of watching someone write information out. The blackboard writing helped me to process certain ideas.

Disliked:

  • Video and audio quality were pain to watch.
    • Many questions asked by students were hard to hear.
  • On-screen visuals range from hard to impossible to see.
  • Found myself counting minutes.
  • Dr. Ng mentions TA classes, supplementary learning, but these are not available online.
  • Sometimes the video showed students, which I felt was invasive.

Lecturer:

Andrew Ng (see above)

Links:

Tips on Watching:

  • Only watch if you're looking to gain a deeper understanding of the math presented in the Coursera course.
  • Skip the first half of the first lecture, since it's mostly class logistics.

Additional Resources


Motivations and inspiration

If you're wondering why I spent a year doing this, then I'm with you. I'm genuinely not sure why I set my sights on this project, much less why I followed through with it. I saw Mike King give a session on Machine Learning. I was caught off guard, since I knew nothing on the topic. It gave me a pesky, insatiable curiosity itch. It started with one course and then spiraled out of control. Eventually it transformed into an idea: a review guide on the most affordable and popular machine learning resources on the web (through the lens of a complete beginner). Hopefully you found it useful, or at least somewhat interesting. Be sure to share your thoughts or questions in the comments!




Source link
Quitter la version mobile