mardi 8 juillet 2014

Heures événement  
09:00 - 10:00 Accueil des participants - Accueil des participants  
10:00 - 10:30 Mot d'ouverture de CAp'14 (Amphithéâtre J21) - Présidents de CAp'14  
10:30 - 12:00 Session 1.1 : Factorisation de matrices - Session 1.2 : Apprentissage on-line/incrémental (Amphithéâtre J21) - Président de session : Marc Tommasi  
10:30 - 11:00 › Matrix Completion with Nuclear Norm Regularisation in a Sequential Context - Charanpal, Gaudel, Clémençon  
11:00 - 11:30 › Classication croisée sous contraintes basée sur la Tri-Factorisation matricielle - Allab, Labiod, Nadif  
11:30 - 11:35 › Factorisation matricielle sous contraintes pour l'analyse des usages du métro parisien - Poussevin, Baskiotis, Guigue, Gallinari  
11:35 - 11:40 › Prise de decision contextuelle en bande organisée : Quand les bandits font un brainstorming - Allesiardo, Féraud, Bouneffouf  
11:40 - 11:45 › Multi One-Class Incremental SVM For Both Stationary And Non-Stationary Environment - Ngo ho, Ragot, Eglin, Ramel  
11:45 - 11:50 › Apprentissage Online de Modèles d'Ising Parcimonieux - Chevaleyre, Koriche  
12:00 - 13:45 Déjeuner au restaurant "La Platine"  
13:45 - 15:15 Session 2.1 : Apprentissage de features/métriques - Session 2.2 : Apprentissage collaboratif/Méthodes ensemblistes (Amphithéâtre J21) - Président de session : Frédéric Koriche  
13:45 - 14:15 › Graph abstraction for closed pattern mining in attributed networks - Santini, Soldano  
14:15 - 14:20 › Modélisation de Distances Couleur Uniformes par Apprentissage de Métriques Locales - Habrard, Muselet, Perrot, Sebban  
14:20 - 14:25 › Sélection de variables en mode semi-supervisé dans un contexte multi-labels - Alalga, Benabdeslem  
14:25 - 14:30 › Prise en Compte du Contexte pour Contraindre les Réseaux Profonds: Application à l'Étiquetage de Scènes - Kekec, Emonet, Fromont, Trémeau, Wolf  
14:30 - 15:00 › Adaptation de domaine de vote de majorité par auto-étiquetage non itératif - Emilie Morvant  
15:00 - 15:05 › Unsupervised one class identification by selecting and combining ranking functions - Cornuéjols, Martin  
15:05 - 15:10 › Multi Agent Learning of Relational Action Models - Rodrigues, Soldano, Bourgne, Rouveirol  
15:15 - 15:45 Pause café (Salle D03)  
15:45 - 17:15 Session 3 : Optimization (Amphithéâtre J21) - Président de session : Romaric Gaudel  
15:45 - 16:15 › Learning the Graph of Relations Among Multiple Tasks - Argyriou, Clémençon, Zhang  
16:15 - 16:45 › A smoothing-based composite conditional gradient for doubly non-smooth learning - Pierucci, Malick, Harchaoui  
16:45 - 16:50 › Using SVDD in SimpleMKL for 3D-Shapes Filtering - Loosli, Aboubacar  
16:50 - 17:15 › PCFG Induction for Unsupervised Parsing and Language Modelling - De La Higuera, Scicluna  
17:15 - 18:45 Session DOC 1 - Présentation par les doctorants première année de leur travaux de thèse sous forme de posters.  
18:45 - 20:00 Cocktail à la Mairie de Saint-Etienne  

mercredi 9 juillet 2014

Heures événement  
08:30 - 09:00 Accueil des participants - Accueil des participants  
09:00 - 10:30 Session 4 : Méthodes spectrales (Amphithéâtre J21) - Président de session : Amaury HABRARD  
09:00 - 09:30 › Hypernode Graphs for Spectral Learning on Binary Relations over Sets - Ricatte, Gilleron, Tommasi  
09:30 - 10:00 › Apprentissage spectral non supervisé de FST - Bailly, Carreras, Quattoni  
10:00 - 10:05 › Clustering Spectral avec Contraintes de Paires réglées par Noyaux Gaussiens - Chatel, Denis, Tommasi  
10:05 - 10:10 › L'apprentissage non supervisé de PCFG comme approximation de rang faible d'une matrice - Bailly, Carreras, Luque, Quattoni  
10:30 - 11:00 Pause café (Salle D03)  
11:00 - 12:00 Invited talk (Francis Bach - INRIA ENS Paris): Beyond stochastic gradient descent for large-scale machine learning. (Amphithéâtre J21) - (Président : Marc Sebban) Francis Bach: Many machine learning and signal processing problems are traditionally cast as convex optimization problems. A common difficulty in solving these problems is the size of the data, where there are many observations (large n) and each of these is large (large p). In this setting, online algorithms such as stochastic gradient descent which pass over the data only once, are usually preferred over batch algorithms, which require multiple passes over the data. In this talk, I will show how the smoothness of loss functions may be used to design novel algorithms with improved behavior, both in theory and practice: in the ideal infinite-data setting, an efficient novel Newton-based stochastic approximation algorithm leads to a convergence rate of O(1/n) without strong convexity assumptions, while in the practical finite-data setting, an appropriate combination of batch and online algorithms leads unexpected behaviors.  
12:00 - 13:45 Déjeuner au restaurant "La Platine"  
13:45 - 15:45 Session Posters - Session Posters en salle D03 - Discussion autour des travaux présentés en version courte  
15:45 - 16:30 AG CAp'14 - Assemblée Générale en Amphi J021  
16:30 - 18:30 Visite du Musée de la Mine de Saint-Etienne - Visite du Musée de la Mine de Saint-Etienne  
19:30 - 23:00 Banquet au restaurant "Le Grand Cercle"  

jeudi 10 juillet 2014

Heures événement  
08:30 - 09:00 Accueil des participants - Accueil des participants  
09:00 - 09:45 Session 5 : Prix du meilleur papier CAp'14 (Amphithéâtre J21) - Président(e) de session : TBA  
09:00 - 09:45 › Décompositions Tensorielles pour l'Apprentissage de Modèles de Mélanges Négatifs - Denis, Rabusseau  
09:45 - 10:30 Retour sur le HackDay - Retour sur le HackDay (Ludovic Denoyer et Elisa Fromont)  
10:30 - 11:00 Pause café (Salle D03)  
11:00 - 12:00 Invited talk (Hendrick Blockeel - KU Leuven): Declarative data analysis (Amphithéâtre J21) - (Présidente : Elisa Fromont) Hendrick Blockeel: With increasing amounts of ever more complex forms of digital data becoming available, the methods for analyzing these data have also become more diverse and sophisticated. With this comes an increased risk of incorrect use of these methods, and a greater burden on the user to be knowledgeable about their assumptions. For instance, it is well-known that statistical methods are often used incorrectly. There seems to be no reason to believe that the situation is much better for data mining methods in general. The idea behind declarative data analysis is that the burden of choosing the right statistical methodology for answering a research question should no longer lie with the user, but with the system. The user should be able to simply describe the problem, formulate a question, and let the system take it from there.  
12:00 - 13:45 Déjeuner au restaurant "La Platine"  
14:00 - 16:00 Visite possible de la Cité du Design suivie de la Cloture de CAp'14 (Amphithéâtre J21)