Tous les articles par Marc

Communauté : the Innovation Explorers

Depuis le milieu de ce printemps, je fais partie d’une communauté de chercheurs : the Innovation Explorers.

[ad#Google Adsense]

Cette communauté, créé de toute pièce par la maison d’édition Elsevier a pour but de permettre une promotion de la recherche et de ses outils au sein d’un panel de chercheurs selectionnés qui auront la charge par la suite de faire une promotion des outils proposés par Elsevier. Pour attirer des membres, Elsevier a choisi la voie pécunière, un bon d’achat lors de l’inscription, et d’autres en fonction de notre implication.

Au bout de quelques mois de participation, le premier bilan a faire est que la voie pécunière n’était pas le choix le plus judicieux. Comme tous site naissant, le contenu de qualité est encore léger, ce qui est logique. Mais au lieu d’avoir un site communautaire partiellement rempli, nous nous trouvons sur une plateforme pleine de bruit, avec des messages vides qui ont pour simple objectif de faire un « +1 » sur le compte de son auteur (dans l’objectif d’obtenir sa prime mensuelle) …

A voir comment cette communauté arrive à vivre par la suite … mais pour le moment, sa naissance se fait dans la douleur …

the Innovation Explorers :
Mon Id : marcSauget

Présentation lors de la conférence EANN 2011

Les dernières avancées de mes travaux seront présentés dans le cadre des 12th EANN / 7th AIAI Joint Conferences :: 15 – 18 September 2011, Corfu, Greece, Engineering Applications of Neural Networks / Artificial Intelligence Applications and Innovations

Cette présentation sera basée sur l’article « Large datasets: a mixed method to adapt and improve their learning by neural networks used in regression contexts » co-rédigé avec Pr Contassot-Vivier Sylvain, Dr Salomon Michel et Dr Henriet Julien.

Voici l’abstract de l’article :

The purpose of this work is to further study the relevance of accelerating the Monte-Carlo calculations for the gamma rays external radiotherapy through feed-forward neural networks. We have previously presented a parallel incremental algorithm that builds neural networks of reduced size, while providing high quality approximations of the dose deposit.
Our parallel algorithm consists in an optimized decomposition of the initial learning dataset (also called learning domain) in as much subsets as available processors. However, although that decomposition provides subsets of similar signal complexities, their sizes may be quite different, still implying potential differences in their learning times. This paper presents an efficient data extraction allowing a good and balanced training without any loss of signal information. As will be shown, the resulting irregular decomposition permits an important improvement in the learning time of the global network.

Et le plus important le lien sur la conférence : EANN 2011

[ad#Google Adsense]

Java versus C++ (2nd round)

j’avais mis en ligne un premier résultat de test montrant que Java pouvait concurrence C++ dans le registre de la performance.

Afin de compléter ce premier résultat, j’ai poursuivi ma comparaison en accroissant le volume de calcul à réaliser ( volume des données et précision de calcul). Ce 2nd résultat confirme le premier test et encore une fois, la version Java de mon programme est autant performante (ou aussi peu pour les mauvaises langues) que ma version C++.

Voici les résultats :

C++/MPI

nb Dec Tps moyen Tps tot Prec moy Prec U
1 693,49 693,49 -5,39E-004 8,51E-004
2 689,225 1378,45 1,50E-005 7,65E-004
4 496,445 1985,78 -5,48E-005 5,12E-005
8 212,62 1700,96 2,54E-005 1,43E-005
16 89,039375 1424,63 3,14E-005 8,89E-006

Java/Jace

nb Dec Tps moyen Tps tot Prec moy Prec U
1 608,1793823242 608,1793823242 4,87E-007 1,53E-003
2 596,3627929688 1192,7255859375 -1,43E-004 7,35E-004
4 492,4767684937 1969,9070739746 -4,16E-010 4,22E-004
8 197,4866099358 1579,8928794861 -1,61E-005 8,70E-005
16 88,004909873 1408,0785579681 6,35E-006 1,15E-005

Voici les conditions de test :

Java utilisée :
java version « 1.6.0_16 »
Java(TM) SE Runtime Environment (build 1.6.0_16-b01)
Java HotSpot(TM) 64-Bit Server VM (build 14.2-b01, mixed mode)

C++ : (Configuration du mésocentre)
Option d’optimisation -O2 (à vérifier la compatibilité de cette option
avec ICC)
Compilateur : ICC
MPI : openMPI (Intel)

L’ensemble des tests ont été réalisé sur mésoshared un jour de calme ^^

[ad#Google Adsense]

Nouvelle version de mon CV

Ingénieur d’Etude et de développement :
Sauget Marc

Compétences informatiques

Environnements GNU Linux (Debian), Windows
Langages C/C++, Java/J2EE, LaTeX
Script Perl, Bash
Tech. Web HTML/CSS, JavaScript, PHP/MySql
Parallélisme MPI, PM2, CUDA, OpenMP, Threading Building Blocks
IDE Eclipse, Visual C++, emacs
Débuggeur DevPartner, Valgrind, gprof
Bureautique OpenOffice.org, Office, Latex
Logiciels div. Qt-Designer, gnuplot, OAR, The Gimp, skencil
IHM Qt-Trolltech, Java Swing

Une offre de formation Online

A partir d’aujourd’hui et en parallèle de mon activité professionnelle, je travaille à la mise en place d’une plateforme de formation entièrement en ligne. L’objectif est simple, fournir un outil permettant à tout à chacun de trouver la formation lui permettant d’acquérir de nouvelles connaissances, tout en bénéficiant d’un encadrement de qualité.

Plusieurs questions restent en suspend avant la mise en place de cette plateforme :

– Viabilité de l’offre : il existe beaucoup de site de formation, gratuit ou payant, en groupe ou en suivi individuel, accrédité ou non. La première réponse est donc de s’assurer de la viabilité du projet avant tout chose.

– Accréditation de l’offre : Proposer une formation, c’est bien, proposer une formation possédant une certification, c’est mieux.

– Panel de l’offre : Faut il se spécialiser ou au contraire avoir un catalogue le plus étoffé posssible ? La spécialisation permet de s’assurer un créneau de prospection alors que l’ouverture permet à l’inverse de viser le plus grand nombre de candidats possibles.

Partenaires : Une telle aventure ne peut pas se faire seul, comment sélectionner les différents intervenants, comment les réttribuer ?

Je ne manquerais pas de vous tenir au courant de l’avancé de ce projet, ce n’est peut être qu’une première étape, une idée qui restera là où elle en est … mais peut être pas . A suivre donc.

[ad#Google Adsense]

Un premier choix de plateforme serait l’outil Moodle. La maquette en cours de mise en place est disponible (régulièrement) ici :
passToForm

Un premier aperçu de la maquette "ef@rmation"
Un premier aperçu de la maquette "ef@rmation"

Java Vs C++

Quand un logiciel est en cours de phase initial ou lors d’un changement majeur, la question du choix du langage peut être posé.

Mon projet étant essentiellement basé sur de l’apprentissage de réseau de neurones, la performance se doit être maximum … Et pour beaucoup, C++ s’imposerait donc sans équivoque.

[ad#Google Adsense]

Oui mais, cette évidence est peut être à remettre en cause. Dans mon cas, et pour des raisons de recherche, j’ai réalisé une version Java et une version C++, ce qui donnera en parallèle, une version utilisant MPI et l’autre utilisante JaceMPI, un environnement en cours de développement.

Le premier résultat est sans équivoque, pour un apprentissage rapide :

C++ => 11.8 s
Java => 10.7 s

La différence n’est pas flagrante … mais le langage en tête n’est pas celui attendu.

[ad#Google Adsense]

Le premier n° de Mathematica Æterna est sorti

Ce premier numéro est relativement léger et propose le contenu suivant :

Paul Bracken
Surfaces of Arbitrary Constant Negative Gaussian Curvature and Related Sine-Gordon Equations
Math.Aeterna,Vol.1, 2011, no. 01, 1-11

Samy Skander Bahoura
sup X inf inequality on manifold of dimension 3
Math. Aeterna, Vol.1, 2011, no. 01, 12 – 25

Daiheng Ni
Multiscale Modeling of Traffic Flow
Math. Aeterna, Vol.1, 2011, no. 01, 26 – 53

Arun Kumar, Ram Dayal Pankaj and Chandra Prakash Gupta
Description of a wave-wave interaction model by Variational and Decomposition methods
Math. Aeterna, Vol. 1, 2011, no. 01, 54 – 62

Comme c’est une revue en open acces, il est librement lisible à cette adresse : http://www.e-hilaris.com/volume1.html

Bonne lecture

[ad#Google Adsense]