Programme
Heures |
événement |
(+)
|
09:00 - 10:00
|
Accueil des participants - Accueil des participants |
|
10:00 - 10:30
|
Mot d'ouverture de CAp'14 (Amphithéâtre J21) - Présidents de CAp'14 |
|
10:30 - 12:00
|
Session 1.1 : Factorisation de matrices - Session 1.2 : Apprentissage on-line/incrémental (Amphithéâtre J21) - Président de session : Marc Tommasi |
(+)
|
10:30 - 11:00 |
› Matrix Completion with Nuclear Norm Regularisation in a Sequential Context - Charanpal, Gaudel, Clémençon |
|
11:00 - 11:30 |
› Classication croisée sous contraintes basée sur la Tri-Factorisation matricielle - Allab, Labiod, Nadif |
|
11:30 - 11:35 |
› Factorisation matricielle sous contraintes pour l'analyse des usages du métro parisien - Poussevin, Baskiotis, Guigue, Gallinari |
|
11:35 - 11:40 |
› Prise de decision contextuelle en bande organisée : Quand les bandits font un brainstorming - Allesiardo, Féraud, Bouneffouf |
|
11:40 - 11:45 |
› Multi One-Class Incremental SVM For Both Stationary And Non-Stationary Environment - Ngo ho, Ragot, Eglin, Ramel |
|
11:45 - 11:50 |
› Apprentissage Online de Modèles d'Ising Parcimonieux - Chevaleyre, Koriche |
|
12:00 - 13:45
|
Déjeuner au restaurant "La Platine" |
|
13:45 - 15:15
|
Session 2.1 : Apprentissage de features/métriques - Session 2.2 : Apprentissage collaboratif/Méthodes ensemblistes (Amphithéâtre J21) - Président de session : Frédéric Koriche |
(+)
|
13:45 - 14:15 |
› Graph abstraction for closed pattern mining in attributed networks - Santini, Soldano |
|
14:15 - 14:20 |
› Modélisation de Distances Couleur Uniformes par Apprentissage de Métriques Locales - Habrard, Muselet, Perrot, Sebban |
|
14:20 - 14:25 |
› Sélection de variables en mode semi-supervisé dans un contexte multi-labels - Alalga, Benabdeslem |
|
14:25 - 14:30 |
› Prise en Compte du Contexte pour Contraindre les Réseaux Profonds: Application à l'Étiquetage de Scènes - Kekec, Emonet, Fromont, Trémeau, Wolf |
|
14:30 - 15:00 |
› Adaptation de domaine de vote de majorité par auto-étiquetage non itératif - Emilie Morvant |
|
15:00 - 15:05 |
› Unsupervised one class identification by selecting and combining ranking functions - Cornuéjols, Martin |
|
15:05 - 15:10 |
› Multi Agent Learning of Relational Action Models - Rodrigues, Soldano, Bourgne, Rouveirol |
|
15:15 - 15:45
|
Pause café (Salle D03) |
|
15:45 - 17:15
|
Session 3 : Optimization (Amphithéâtre J21) - Président de session : Romaric Gaudel |
(+)
|
15:45 - 16:15 |
› Learning the Graph of Relations Among Multiple Tasks - Argyriou, Clémençon, Zhang |
|
16:15 - 16:45 |
› A smoothing-based composite conditional gradient for doubly non-smooth learning - Pierucci, Malick, Harchaoui |
|
16:45 - 16:50 |
› Using SVDD in SimpleMKL for 3D-Shapes Filtering - Loosli, Aboubacar |
|
16:50 - 17:15 |
› PCFG Induction for Unsupervised Parsing and Language Modelling - De La Higuera, Scicluna |
|
17:15 - 18:45
|
Session DOC 1 - Présentation par les doctorants première année de leur travaux de thèse sous forme de posters. |
|
18:45 - 20:00
|
Cocktail à la Mairie de Saint-Etienne |
|
Heures |
événement |
(+)
|
08:30 - 09:00
|
Accueil des participants - Accueil des participants |
|
09:00 - 10:30
|
Session 4 : Méthodes spectrales (Amphithéâtre J21) - Président de session : Amaury HABRARD |
(+)
|
09:00 - 09:30 |
› Hypernode Graphs for Spectral Learning on Binary Relations over Sets - Ricatte, Gilleron, Tommasi |
|
09:30 - 10:00 |
› Apprentissage spectral non supervisé de FST - Bailly, Carreras, Quattoni |
|
10:00 - 10:05 |
› Clustering Spectral avec Contraintes de Paires réglées par Noyaux Gaussiens - Chatel, Denis, Tommasi |
|
10:05 - 10:10 |
› L'apprentissage non supervisé de PCFG comme approximation de rang faible d'une matrice - Bailly, Carreras, Luque, Quattoni |
|
10:30 - 11:00
|
Pause café (Salle D03) |
|
11:00 - 12:00
|
Invited talk (Francis Bach - INRIA ENS Paris): Beyond stochastic gradient descent for large-scale machine learning. (Amphithéâtre J21) - (Président : Marc Sebban) Francis Bach: Many machine learning and signal processing problems are traditionally cast as convex optimization problems. A common difficulty in solving these problems is the size of the data, where there are many observations (large n) and each of these is large (large p). In this setting, online algorithms such as stochastic gradient descent which pass over the data only once, are usually preferred over batch algorithms, which require multiple passes over the data. In this talk, I will show how the smoothness of loss functions may be used to design novel algorithms with improved behavior, both in theory and practice: in the ideal infinite-data setting, an efficient novel Newton-based stochastic approximation algorithm leads to a convergence rate of O(1/n) without strong convexity assumptions, while in the practical finite-data setting, an appropriate combination of batch and online algorithms leads unexpected behaviors. |
|
12:00 - 13:45
|
Déjeuner au restaurant "La Platine" |
|
13:45 - 15:45
|
Session Posters - Session Posters en salle D03 - Discussion autour des travaux présentés en version courte |
|
15:45 - 16:30
|
AG CAp'14 - Assemblée Générale en Amphi J021 |
|
16:30 - 18:30
|
Visite du Musée de la Mine de Saint-Etienne - Visite du Musée de la Mine de Saint-Etienne |
|
19:30 - 23:00
|
Banquet au restaurant "Le Grand Cercle" |
|
Heures |
événement |
(+)
|
08:30 - 09:00
|
Accueil des participants - Accueil des participants |
|
09:00 - 09:45
|
Session 5 : Prix du meilleur papier CAp'14 (Amphithéâtre J21) - Président(e) de session : TBA |
(+)
|
09:00 - 09:45 |
› Décompositions Tensorielles pour l'Apprentissage de Modèles de Mélanges Négatifs - Denis, Rabusseau |
|
09:45 - 10:30
|
Retour sur le HackDay - Retour sur le HackDay (Ludovic Denoyer et Elisa Fromont) |
|
10:30 - 11:00
|
Pause café (Salle D03) |
|
11:00 - 12:00
|
Invited talk (Hendrick Blockeel - KU Leuven): Declarative data analysis (Amphithéâtre J21) - (Présidente : Elisa Fromont) Hendrick Blockeel: With increasing amounts of ever more complex forms of digital data becoming available, the methods for analyzing these data have also become more diverse and sophisticated. With this comes an increased risk of incorrect use of these methods, and a greater burden on the user to be knowledgeable about their assumptions. For instance, it is well-known that statistical methods are often used incorrectly. There seems to be no reason to believe that the situation is much better for data mining methods in general. The idea behind declarative data analysis is that the burden of choosing the right statistical methodology for answering a research question should no longer lie with the user, but with the system. The user should be able to simply describe the problem, formulate a question, and let the system take it from there. |
|
12:00 - 13:45
|
Déjeuner au restaurant "La Platine" |
|
14:00 - 16:00
|
Visite possible de la Cité du Design suivie de la Cloture de CAp'14 (Amphithéâtre J21) |
|
|