Posts about computationalneuroscience

2011-07-25 computational and theoretical neuroscience

2011-07-25 09:45:31

the poll

  • On april 1st, 2011, I sent the following message to the comp-neuro and connectionists lists: (see
  • Dear list
    A recent paper in PLoS Computational Biology
    > The Roots of Bioinformatics in Theoretical Biology
    > Paulien Hogeweg
    > Volume 7(3) March 2011
    makes a point in the evolution of the meaning of the field of bioinformatics with the advent of data-driven modeling.
    The same seems to have appeared in computational neuroscience. The sense slowly drifted from the original papers (such as Science, Vol. 241, No. 4871, 1988, pp. 1299-1306. by T. J. Sejnowski, C. Koch, P. S. Churchland) which I believed is perfectly captured in the sentence: "The ultimate aim of computational neuroscience is to explain how electrical and chemical signals are used in the brain to represent and process information."  (this does not exclude using computers of course).
    It seems to be solely a semantical problem, but this may generate some confusion (realpolitik translation: "and this may hinder the efficiency of your grant proposal"). Recently an (anonymous) colleague told me they called their group "computational AND theoretical neuroscience" (just as these two fields where separated) out of the lack of consensus on the meaning of words and to not exclude anyone. Nowadays, even in the university, there is a continuum of fields combining biology,  mathematics or computer science and all computational neuroscientists reflect this as individuals. so what's the situation in 2011?
    I often asked to fellow colleagues this question, "what is computational neuroscience?" and often got one of these answers (I try to be unbiased - please correct me):
     [ ] it is a field of neuroscience involving the use of computers (von Neumann machines, Dell boxes, macbooks, ...) to simulate and analyze data obtained from experimental neuroscience and advance our knowledge from this dialogue. Theoretical neuroscience is different in the sense that it proposes mathematical models of how it works.
     [ ] it is the field of neuroscience studying how information is represented and processed in neural activity. This involves a dialogue with experimental neuroscience to analyze and propose experiments. It proposes models, that is theories for the relation between function and structure. Theoretical neuroscience is a subset of computational neuroscience that tries to express these models in standard mathematical language.
     [ ] it is some field of neuroscience and why would you care to give an exact definition? its frontiers are moving and it has many facets, theoretical neuroscience being just one example. it cares about being less ignorant on relation between function and structure in neuroscience.
    If you want to express your opinion, you can so in one click:
    results :


  • I have received 36 responses with the following results (see ):
    1. [ 5 ] it is a field of neuroscience involving the use of computers (von Neumann machines, Dell boxes, macbooks, ...) to simulate and analyze data obtained from experimental neuroscience and advance our knowledge from this dialogue. Theoretical neuroscience is different in the sense that it proposes mathematical models of how it works.
    2. [ 21 ] it is the field of neuroscience studying how information is represented and processed in neural activity. This involves a dialogue with experimental neuroscience to analyze and propose experiments. It proposes models, that is theories for the relation between function and structure. Theoretical neuroscience is a subset of computational neuroscience that tries to express these models in standard mathematical language.
      • one answer is amended by "is a sub-field of theoretical neuroscience that seeks to understand how information is represented and processed in the nervous system by implementing and testing theories in the form of computer simulations."
      • another answer comments "Not a definition, but a comment. Since Comp. Neurosci. (or whatever it should be called -- some people now call it Neurodynamics) is already such a small field and barely represented on the map, I think it is foolish to further subdivide it. That is why I like the first definition a bit more, such that both are collected under one roof."
    3. [ 6 ] it is some field of neuroscience and why would you care to give an exact definition? its frontiers are moving and it has many facets, theoretical neuroscience being just one example. it cares about being less ignorant on relation between function and structure in neuroscience.
    4. [ 4 ] other free-form answers were given:
      1. with a slight modification to the first definition
        I agree with definition (1) except the "Theoretical neuroscience is a subset of ..." as I might argue that "Computational neuroscience is a subset of theoretical neuroscience".
      2. with a new definition close to the aims of theoretical neuroscience
        it is field of neuroscience that use mathematical models to analyze the data obtained from experimental neuroscience. Therefore, it gives a logical result to it and it can be explained instead to be as a magic box
      3. to a strict "computational" view
        It is the subset of theoretical neuroscience that hypothesises that the brain is a computer. This relates to the first definition to the extent that 'computation' is identified with 'information processing'. Theoretical neuroscience is simply the development of models (in any form, including mathematics or computer simulations) of neural processes. It is possible for a process to be simulated or analyzed using a computer - see the second definition - without claiming the process itself is an example of computation. 'Computational neuroscience' usually implies this stronger claim, though it is now often used more loosely (definition three).
      4. or to the interesting view that these different approaches overlap but correspond to different approaches:
        In my view, theoretical neuroscience is the non-experimenting version of neuroscience, much like theoretical physics is the non-experimenting version of physics.
        I would argue that theoretical neuroscience and computational neuroscience are different in their approaches.
        Computational neuroscience has a strong focus on simulation. It is the "virtual" extension of electrophysiology. The modeling philosophies of GENESIS and Neuron clearly reflect this. So called "biologically realistic" simulations are the gold standard in computational neuroscience.
        Theoretical neuroscience, by contrast, has its focus on mathematical descriptions and properties of nervous structures. Theoretical neuroscience starts, when the experiments, real or simulated, are done. The excellent books of Henry Tuckwell illustrate this. Here, simulation is not the method of choice, but the last resort after all pencils are broken and all paper is used up ;-)
        At best, I would say that there is overlap between the two rather than that one comprises the other.
        And while we are at definitions. Why not add the re-incarnated term of "Neuroinformatics" to the contest?


2010-10-27 Master M2 Sciences

Travaux pratiques : modèle bayesien de détection du mouvement d'objets

  • Le 27/10/2010, de 14h00 à 17h00 dans la salle formation de l'INCM (bâtiment N du GLM, 31, chemin Joseph Aiguier 13402 Marseille cedex).
  • alert me prévenir si vous n'avez pas un ordinateur portable personnel!

principe du TP

  • But: définition de la probabilité de vraissemblance pour des translations d'images grâce à l'utilisation d'un script générique
  • Méthode: montage d'expérience:
    1. expérience simple
    2. expérience avec vitesse entre 0 et une période
    3. effet du contraste sur le wagon wheel illusion
  • Résultats:
    1. une figure montrant 2 images successives d'un film, la densité de probabilité de mouvement. les images seront: un point, une ligne (réseau), un barber-pole, une image naturelle.
    2. une figure montrant l'influence d'un bruit ajouté sur ces images
    3. une figure montrant l'influence de la vitesse sur le mouvement d'un réseau


expérience simple

  • pour charger la boîte à outils :
    import motion_plant as mp
  • pour visualiser une image
    I1, I2 = mp.generate(V_X = 3.5)
  • Calcule la proba sur les vitesses V pour les 2 images:
    1. Il faut définir V avec la fonction velocity_grid, par exemple:
      V= mp.velocity_grid(v_max = 5.)

      (v_max est important il donne la valeur max des proba à tester)

    2. puis invoquer:
      P= mp.proba(V, I1, I2)
  • on peut voir la proba avec
    mp.show_proba(V, P)
  • et trouver celle qui correspond au maximum:
    mp.ArgMaxProba(V, P)

    ou la moyenne

    mp.MeanProba(V, P)
  • essayez différentes images...
    1. image naturelle
      I1, I2 = mp.lena()
    2. réseau carré
      I1, I2 = mp.generate(V_X = 2.5, square=True)
  • et différents paramètres, comme la variance de la vraissemblance
    sigmas = np.logspace(-2, 0, 10)
    for sigma in sigmas:
        I1, I2 = mp.generate(V_X = 2.5)
        P= mp.proba(V, I1, I2, sigma=sigma)
        mp.show_proba(V, P)
        pylab.title('sigma ' + str(sigma))
        print mp.ArgMaxProba(V, P), mp.MeanProba(V, P)
  • ou la variance du prior
    sigmas = np.logspace(-1, 1, 10)
    for sigma_p in sigmas:
        I1, I2 = mp.generate(V_X = 2.5)
        P= mp.proba(V, I1, I2, sigma_p=sigma_p)
        mp.show_proba(V, P)
        pylab.title('sigma_p ' + str(sigma_p))
        print mp.ArgMaxProba(V, P), mp.MeanProba(V, P)

expérience avec différents niveaux de bruit

  • pour créer une liste de bruits à tester, utiliser
    noises = np.linspace(0, 2., 10)
    for noise in noises:
        I1, I2 = mp.generate(V_X = 2.5, noise=noise)
        P= mp.proba(V, I1, I2, sigma_p=1.)
        print mp.ArgMaxProba(V, P), mp.MeanProba(V, P)
  • à comparer avec le cas où on est plus conservateur:
    N_contrast =10
    contrasts = np.linspace(0, 1., N_contrast)
    V_hat = np.zeros((N_contrast,2))
    for i, contrast in enumerate(contrasts):
        I1, I2 = mp.generate(V_X = 2.5, contrast=contrast, noise=.2,)
        P= mp.proba(V, I1, I2, sigma_p=10.)
        V_hat[i,:] = mp.MeanProba(V, P)
    pylab.plot(contrasts, V_hat[:,0], 'r')
    pylab.plot(contrasts, V_hat[:,1], 'r--')
    V_hat = np.zeros((N_contrast,2))
    for i, contrast in enumerate(contrasts):
        I1, I2 = mp.generate(V_X = 2.5, contrast=contrast, noise=.2,)
        P= mp.proba(V, I1, I2, sigma_p=1.)
        V_hat[i,:] = mp.MeanProba(V, P)
    pylab.plot(contrasts, V_hat[:,0], 'g')
    pylab.plot(contrasts, V_hat[:,1], 'g--')
  • ou avec une image naturelle:
    N_contrast =10
    contrasts = np.linspace(0, 1., N_contrast)
    V_hat = np.zeros((N_contrast,2))
    for i, contrast in enumerate(contrasts):
        I1, I2 = mp.lena()
        P= mp.proba(V, I1, I2, sigma_p=10.)
        V_hat[i,:] = mp.MeanProba(V, P)
    pylab.plot(contrasts, V_hat[:,0], 'b')
    pylab.plot(contrasts, V_hat[:,1], 'b--')

expérience avec un réseau à différentes vitesses

  • pour créer une liste de vitesses à tester, utiliser
    speeds = np.linspace(0, 10., 10)
    V_hat = np.zeros((10,2))
    for i, V_X in enumerate(speeds):
        I1, I2 = mp.generate(V_X = V_X, frequence=12)
        P= mp.proba(V, I1, I2, sigma_p=1.)
        V_hat[i,:] = mp.ArgMaxProba(V, P)
    pylab.plot(speeds, V_hat[:,0], 'g')
    pylab.plot(speeds, V_hat[:,1], 'g--')
  • ... c'est le Wagon-wheel effect!


2010-10-20 Master M2 Sciences

Laurent Perrinet
Laurent Perrinet - Team InViBe, Institut de Neurosciences de la Timone (UMR 7289)
CNRS - Aix-Marseille Université Researcher

Les Neurosciences Computationelles étudient l'émergence dans les réseaux neuronaux (structure) des fonctions cognitives (fonction). Durant ce cours, nous allons définir ce paradigme de façon générique avant de l'appliquer à trois cas particuliers. D'abord nous allons étudier un exemple de réseau de type Bayesien appliqué à la détection du mouvement visuel. Ensuite, nous étudierons un exemple de réseau de neurones abstraits appliqué au codage adaptatif d'images. Enfin, l'étude de différents types de connectivité dans des réseaux de neurones impulsionnels réalistes.

Neurosciences Computationelles: émergence dans des réseaux d'information

Plan du cours

  1. Neurosciences computationnelles?
  2. Une première application fonctionnelle: détection du mouvement utilisant des modèles probabilistes.
  3. Réseaux optimaux pour le calcul de la représentation d'une image
  4. Vers des implantations neurales...

Le cerveau est-elle une machine de Turing ?

Le Système Nerveux Central: quelques chiffres

  • Cerveau = 100 milliards de neurones (cerveau humain)
  • 2% du poids, 20% de la consommation énergétique (5W)
  • 1mm^3 = 90 000 neurones / 700.000.000 synapses / 4 km d’axone / 0,5 km de dendrites

Émergence dans des réseaux d'information

  • Approche classique: réductionisme , atomisme
  • computere
  • émergence ( {en} {fr} )

Neurosciences Computationelles?

  • Les Neurosciences Computationelles étudient l'émergence dans les réseaux neuronaux (structure) des fonctions cognitives (fonction) en termes de traitement d'information (méthode).

    alert ne pas confondre Neurosciences Computationelles et NeuroInformatique !

  • convergence interdisciplinaire de :
    • neurosciences (physiologie, psychophysique)
    • mathématiques (EDP, physique statistique, probabilités et statistiques, calcul stochastique, théorie des graphes, physique statistique, ...)
    • informatique (théorie de l'information, théorie computationnelle, simulation de modèles)
  • applications à la compréhension de la biologie, à répondre aux pathologies + création de nouveaux paradigmes computationnels

Histoire des Neurosciences Computationelles

  • suit d'abord l'histoire des neurosciences
  • 1930 : Turing
  • 1950 : Hebb / von Neumann
  • 1950 : réseaux de neurones, parallelisme (PDP, Rosenblatt)
  • 1980 : étude des systèmes complexes, arrivée de l'émergence (Amari, Grossberg, Kohonen, Hopfield, physique statistique), premières définitions des Neurosciences Computationelles (congrès de Carmel)
  • 1990 : machine learning (NIPS)
  • 2000 : machines hybrides, science de la complexité (probabilités), approche système (explosion du volume de données)
  • 2010 : ...

Niveaux d'analyse de David Marr

fonction / définition algorithmique / méthode hardware / structure, support neural
analyse spectrale décomposition de Fourier FFT
cognition et comportement (modèles de prise de décision; conditionnement classique; conditionnement opérant; apprentissage par réenforcement; neuroéconomie) Traitement de l'information (traitement sensoriel; filtres linéaires et champs récepteurs; estimation des champs récepteurs; détecteurs de contour; modèle de Hubel et Wiesel; statistiques des images naturelles; théorie de l'information; analyse en composantes indépendante; décodage neuronale; codage par population) Dynamique et mécanismes (biophysique d'un neurone; génération de potentiels d'action; réseaux de neurones feedforward et récurrent; réseaux attracteurs; fonctions d'énergie, énergie de Liapounov; apprentissage et plasticité synaptique; mémoires associatives)
Modèles des systèmes neuronaux : La perception visuelle, système vestibulaire, contrôle oculomoteur, contrôle des membres, prise de décision. Théorie des réseaux neuronaux : Codage neuronaux, apprentissage supervisé et non supervisé, apprentissage par renforcement. Modèles de neurones : Modèles de membrane, potentiels d’action, équation Hodgkin-Huxley, modèles de compartiments, canaux, synapses.
suivi d'objet détection d'objet circuit V1-MT/MST-FEF

Suivi d'objet: l'exemple de l'Occular Following Response

Figure Stimuli used for testing OFR. (Left) Grating in a disk aperture with varying contrast and(Middle)*with varying diameters.*(Right) Barberpole.


Modèles Probabilistes


Avantages des représentations probabilitistes

  1. Règles de calcul probabiliste / lien avec la théorie de l'information
  2. Le modèle génératif (vraissemblance) permet de baser inférence (échelle temporelle du codage) et apprentissage (échelle temporelle de l'adaptation)
  3. Modèles hiérarchiques
  4. Réseaux bayesiens

La règle de Bayes

  1. $P( \vec{V} | {\bf I} ) \propto P( {\bf I} | \vec{V} ). P( \vec{V} )$ :
    1. on veut calculer la probabilité a posteriori,
    2. Le modèle génératif permet de définir la probabilité de vraissemblance de tous les modèles directs,
    3. On introduit un prior (ici perceptif) modulant cette probabilité.

De la mesure aux probabilités

  • Soit $\mathbf{I}$ une image contenant du mouvement
  • La meilleure estimation de la vitesse de translation est: $$\vec{v}^\ast = E( \vec{V} | \mathbf{I} ) = \int \vec{V} dP( \vec{v} | \mathbf{I} )$$



  • $$P( \vec{V} | {\bf I} ) \propto P( {\bf I} | \vec{V} ). P( \vec{V} )$$

Un modèle du mouvement

  • Connaissant $\vec{V}$, on estime que $\mathbf{I}(\vec{x},t) \approx \mathbf{I}(\vec{x} - \vec{V} . dt ,t-dt)$
  • $$P( {\bf I} | \vec{V} ) \propto \exp(- \frac{C2 . \mathcal{T}(\mathbf{I}_{100})2}{2.\sigma_m^2})$$
    • avec $\mathcal{T}(\mathbf{I}_{100}) = \| \mathbf{I}_{100}(\vec{x},t) - \mathbf{I}_{100}(\vec{x} - \vec{V} . dt ,t-dt) \|$
    • Son contraste est $C$ par rapport à une référence: $\mathbf{I}=C.\mathbf{I}_{100}$
  • Hypothèse quadratique: $$P( {\bf I} | \vec{V} ) = \mathcal{N}( \vec{V_m} , \sigma_m )$$

inclusion d'un prior basse vitesse

  • $$P( \vec{V} ) = \mathcal{N}( 0 , \sigma_p )$$
  • On en déduit: $$ P( \vec{V} | \mathbf{I} ) \propto \exp(- \frac{C2 . \| \vec{V}-\vec{V_m} \|2}{2.\sigma_m2 } - \frac{ \| \vec{V} \|2}{2.\sigma_p^2 })$$



  • On définit le gain $$\gamma (C) = \frac{ \vec{V}(C)}{ \vec{V_m} }$$
  • On trouve: $$\gamma (C) \propto \frac{C2}{C_{50}2+C^2}$} with $C_{50} \propto \frac{\sigma_p}{\sigma_m}$$

intégration d'informations indépendantes

  • $\mathcal{N} (\vec{V}_ \bf n C \bf n )=\frac{1}{\sqrt{det(2 \pi C \bf n )}}.exp(\frac{1}{2} (\vec{V}-\vec{V}_ \bf n )T C{{\bf n}}{-1} (\vec{V} - \vec{V}_ \bf n )$
  • avec $C_

    \bf n

    $ donné par

    \left( \begin{array}{ccc}%
    \cos(\theta) & -\sin(\theta) \\%
    \sin(\theta) & \cos(\theta)%
    \end{array} \right)%
    \left( \begin{array}{ccc}%
    \sigma_{{\bf n}}^2 & 0 \\%
    0 & \sigma_2^2%
    \end{array} \right)%
  • Indépendence des bruits de mesure: $ P( \vec{V} | \mathbf{I} ) = \Pi_

    \bf n

    P( \vec{V} | \mathbf{I} , {\bf n})=\mathcal{N} (\vec{v}_m,C)$ avec :

    C^{-1}              &=& \sum C^{-1}_{{\bf n}}\\
    C^{-1} . \vec{v}_m &=& \sum C^{-1}_{{\bf n}} \vec{v}_{{\bf n}}
  • d'où
    C_{{\bf n}}^{-1} = %
    \left( \begin{array}{ccc}
    \cos(\theta) & \sin(\theta) \\
    -\sin(\theta) & \cos(\theta)
    \end{array} \right)
    \left( \begin{array}{ccc}
    \sigma_{{\bf n}}^{-2}  & 0 \\
    0 & \sigma_2^{-2}
    \end{array} \right)

intégration spatio-temporelle

  • intégration sur la surface d'un disque:
    \gamma(d) = \frac{C^2}{C_e^2} . \frac{ 1- \exp(-\frac{d^2}{2.\omega^2}) }{ 1 + \frac{C^2}{C_e^2}.(1- \exp(-\frac{d^2}{2.\omega^2})) }%
  • avec un champ inhibiteur
    \gamma(d_c) = \frac{ \frac{C^2}{C_e^2} . g_e }{ 1 + \frac{C^2}{C_i^2}. g_i  + \frac{C^2}{C_e^2}. g_e}
    \mbox{ with }
    g_e              &=& 1- \exp(-\frac{d_c^2}{2.\omega^2}) \\
    g_i &=& 1- \exp(-\frac{d_c^2}{2.\omega_i^2})
  • extensible à d'autres formes d'intégration

Animation of the formation of RFs during aSSC learning

Des probas à une définition du coût neural

$$ {\bf I} = \Psi \cdot \vec{c} + \vec{\nu} $$

$$ \mathcal{C}( {\bf I} | \vec{c} , \Psi) = -\log P( {\bf I} | \vec{o} , \Psi ) $$ $$ \mathcal{C}( {\bf I} | \vec{c} , \Psi ) = \log Z + \frac{1}{2\sigma_n2} \| {\bf I} - \Psi \cdot \vec{c} \|2 - \sum_i \log P(c_i | \Psi)$$ $$ \mathcal{C}( {\bf I} | \vec{c} , \Psi ) = \log Z + \frac{1}{2\sigma_n2} \| {\bf I} - \Psi \cdot \vec{c} \|2 - \lambda \| \vec{c} \|_0$$

  • un problème inverse insoluble (NP-complet). Soyons gourmants!

du coût neural au code neuronal

apprentissage par descente de gradient

  • connaissant le $\vec{c}$ optimal, $\forall i, \Psi_{i} $ devient $ \Psi_{i} + \eta c_{i} ({\bf I} - \Psi\cdot\vec{c}) $

codage par Matching Pursuit

  1. pour un $\Psi$ donné, on choisit $ i^\ast = \mbox{ArgMax}_i (\rho_i)$ avec $\rho_i = <\frac \bf I {\| {\bf I} \|} , \frac{ \Psi_i}{\| \Psi_i\|} > $
  2. comme $ {\bf I} = a_{i\ast} \dico_{i\ast} + \bf{R} $, utilisons $\bf{R}$ et retournons à 1.

Pour plus d'informations, voir Perrinet, Neural Computation (2010).


D'autres modèles de plasticité

Apprentissage non-supervisé

  1. Apprentissage Hebbien linéaire (PCA), décorrelation
  2. Réseaux Winner-take-all, clustering
  3. Codes distribués parcimonieux (sparse coding)

Plasticité et cartes corticales

  1. Self-organizing maps, Kohonen nets
  2. Modèles de ré-organisation topographique
  3. Apprentissage de sous-variétés

Codage Neural et systèmes dynamiques linéaires

  • systèmes dynamiques linéaires $$ \frac{d}{dt} \mathbf{x}(t) = \mathbf{A} \mathbf{x}(t) $$
  • Les racines de $det(A- \lambda I)$ sont les valeurs propores de $A$. Le signe des racines determine la stabilité du système.
  • Pour 2-dimensions, le polynôme characteristique est de la forme $\lambda2-\tau\lambda+\Delta=0$. Les racines sont donc: $$ \lambda=\frac{\tau \pm \sqrt{\tau2-4\Delta}}{2}$$

Codage Neural et systèmes dynamiques NON linéaires


Codage Neural et systèmes dynamiques NON linéaires (2)


Codage Neural et systèmes dynamiques NON linéaires (3)


Des points à retenir

  • Importance de poser (toutes) les hypothèses: a-t-on compris l'ensemble du signal?
  • Compréhension de la cognition à différents niveaux d'analyse, à différentes échelles.
  • Nous quittons le siècle de l'information. Nous entrons dans le siècle de la complexité.

2010-02-11 Neuroinformatique et neurosciences computationnelles

Le programme interdisciplinaire "Neuroinformatique et neurosciences computationnelles" lance son appel d'offres 2010 Neuroinformatique et neurosciences computationnelles - Appel d'offres:

notre proposition



    • Neurosciences et neuroinformatiquecomputationnelle Neuro-IC
    • Déclaration de candidature
      • Titre bref du Projet:(maximum 20 caractères) Émergencein computo

Titre long du Projet:(maximum 3 lignes) Collaborations multi-disciplinaires entre des équipes de neurosciences marseillaises pour une approche intégrative de l'étude de stratégies computationnelles.

Coordinateur du projet : M. Prénom : Laurent Nom :PERRINET Fonction :CR CNRS Laboratoire (nom complet et sigle, le cas échéant) : Institut de Neurosciences Cognitives de la Méditerranée (INCM – UMR 6193) Adresse complète du laboratoire : 31, chemin Joseph Aiguier 13402 Marseille cedex Courriel : Tél :(0-33) 4 91 16 43 08 Fax :(0-33) 4 91 22 08 75

court CV du porteur du projet (1 page)

  • Chercheur (CR1) à l**'INCM,CNRS, depuis 10/2004 · Sous la conduite de Guillaume Masson à l'Institut de Neurosciences Cognitives de la Méditerranée (INCM-UMR 6193, CNRS) à Marseille, j'étudie des modèles d'inférence spatio-temporels dans des flux video. Cette étude a pour but de définir un algorithme neuro-mimétique adaptatif de représentation sur-complète d'un flux video que nous désirons appliquer à l'extraction du champ de vitesse.
  • Doctorat de Sciences cognitivesONERA/DTIM, Toulouse (France) 10/1999-2/2003 - Titre : Comment déchiffrer le code impulsionnel de la Vision? Étude du flux parallèle, asynchrone et épars dans le traitement visuel ultra-rapide. · Allocataire d'une bourse MENRT, accueil à l'ONERA/DTIM. · Cette thèse a été initiée par les résultats de la collaboration pendant le stage de DEA. Elle a été dirigée par Manuel Samuelides (professeur à Supaéro et chargé de recherche à l'ONERA/DTIM) et co-dirigée par Simon Thorpe (directeur de recherche au CerCo)
  • DEA de Sciences cognitives (Univ. Paris VII, P. Sabatier, EHESS, Polytechnique), Paris (France), mention TB. Allocataire d'une bourse de DEA. 9/1998-9/1999 · 3/1999-7/1999 Assistant de recherche, ONERA/DTIM (Département de Traitement de l'Image et de Modélisation), Toulouse (stage de DEA). · 7/1999-8/1999 Assistant de recherche, USAFB (Rome, NY) / University of San Diego in California (États-Unis).
  • Diplôme d'ingénieurSupaéro, Toulouse, France. 1993 - 1998 Spécialisation dans le traitement du signal et de l'image et plus particulièrement dans les techniques des réseaux de neurones artificiels. · 4/1998-9/1998 Assistant de recherche, CerCo (CNRS, UMR5549), Toulouse (stage de fin d'études d'ingénieur). Développement d'un réseau de neurones asynchrone appliqué à la reconnaissance de caractère. · 4/1997-9/1997 Assistant de recherche, Jet Propulsion Laboratory (Nasa), Pasadena, Californie. Département des Sciences de la Terre, Laboratoire d'imagerie radar, Interférométrie SAR · 9/1995-6/1996 Ingénieur Alcatel, Vienne (Autriche). Département du Voice Processing Systems. Budget demandé (sommairement présenté) et durée du projet: 30 k€ /2 ans Le budget sera notifié en une fois. Le programme n’attribuera aucun moyen humain. - 20 k€ : matériel computationnel (voir devis inclus), - 7k€: organisation d'un colloque et d'un atelier, - 3k€: missions, communication. Ce projet a-t-il été déjà évalué ou fait-il l’objet d’une demande en cours ? Dans quel cadre ? A quelle date ? Ce projet n'a pas été évalué précédemment. Plus précisément, ce projet fait-il partie d’une demande présentée à l’ANR dans les deux dernières années ou sera –t-il présenté dans l’année en cours ? Non. A-t-il été accepté ? Si en cours, à quelle date prévoyez-vous une réponse ? Demandez-vous un autre financement ? Précisez dans quel cadre, la somme demandée et la durée du contrat. Non.

Équipes participant au projet:

Nom de l’équipe Nom et prénom du responsable N° d’identification du laboratoire
DyVA (Anna Montagnini, Laurent Perrinet) MASSON Guillaume UMR 6193
DNA (Andrea Brovelli) BOUSSAOUD Driss UMR 6193
Neurosciences Théoriques et Système Complexes (Jean-Luc Blanc) PEZARD Laurent UMR 6149
Contrôle et apprentissage des déplacements finalisés (Emmanuel Daucé) MONTAGNE Gilles UMR 6233

Émergence'' in computo''

__'''Résumé du projet :'''__

Actuellement, une nouvelle classe de calculateurs émerge qui privilégie le parallélisme sur la vitesse de calcul du processeur central. Cette nouvelle technologie diverge de l'architecture classique de Von Neumann pour se rapprocher d'architectures neuro-mimétiques. En particulier, elle nécessite d'étudier spécifiquement comment une telle architecture peut coordonner des calculs distribués, à différentes échelles, mais aussi comment cette architecture peut devenir adaptative et apprendre en fonction de coûts fonctionnels déterminés. Elle offre donc une double chance pour la communauté des neurosciences computationnelles: elle donne des outils de calcul plus efficaces car plus proches des modèles neuro-mimétiques, mais aussi ouvrent un champ d'application pour cette nouvelle classe de calculateurs. Ce projet vise à regrouper différents acteurs marseillais venant de disciplines différentes (neuro-physiologie, psychologie, modélisation, statistique inférentielle, théorie de l'information) autour du thème de l'émergence de nouvelles stratégies computationnelles dans des circuits neuro-mimétiques.

__'''Exposé scientifique du projet:'''__

''' Contexte '''

A l'interface des études électro-physiologiques et de la modélisation, la simulation de grands réseaux de neurones a pour but de tester in silico certaines hypothèses fonctionnelles concernant l'activité et les interactions entre populations de neurones, allant de quelques centaines à quelques centaines de milliers. Ces études visent à pallier certains angles morts liés à l'absence d'outils de mesure concernant principalement les schémas de connexion. L'idée est de pouvoir tester avec un outil fiable et normalisé les hypothèses portant sur ces circuits et les patrons d'interaction de l'échelle du micron à quelques millimètres.

L'outil informatique est un complément essentiel des études électro-physiologiques et est malheureusement encore trop peu développé. Il s'agit donc avant tout d'une culture de la simulation qui est à promouvoir et développer dans les laboratoires de neurosciences. Dans le cadre du projet de regroupement de plusieurs laboratoires sur le site de la Timone à Marseille, un groupe de travail sur les neurosciences computationnelles s'est formé. Le but de ce groupe est bien sûr de favoriser les échanges scientifiques sur des problématiques propres aux neurosciences computationnelles, ainsi que d'animer la communauté par des invitation et des ateliers ponctuels. Or ce groupe possède un fort potentiel interdisciplinaire et il apparaît que son activité pourrait également se structurer autour d'un projet commun, sur lequel chacun apporterait sa pierre : une plate-forme de développement reposant sur une architecture multi-processeur massivement parallèle, utilisant des standards ouverts et actuels (python, MPI,...). L'idée est de construire un outil de simulation propre à la communauté, destiné à focaliser toute la demande en "computationnel" (c'est-à-dire non spécifiquement destinée à l'analyse de données).

Cet outil pourrait servir de base pour initialiser, populariser et structurer cette approche auprès de la communauté des neurosciences, avec comme objectif de proposer à moyenne échéance une interface intuitive sur laquelle certaines idées où des schémas computationnels pourraient être testés sans connaissance en programmation multi-tâche. Cette interface prendra en pratique la forme d'un outil de simulation et d'analyse des données piloté par une interface "web". Cet outil pourrait également servir à la formation des étudiants, avec une idée d'unification des outils et le développement d'un langage de description commun basé sur des normes de description standardisés.

'''Définition et réalisation du projet '''

Actuellement, la limite principale aux validations d'hypothèses scientifiques en neurosciences computationnelles est la capacité à traduire et valider ces idées sous la forme d'un code informatique. Le projet "Émergencein computo" vise à regrouper des acteurs marseillais autour de l'émergence de nouvelles stratégies computationnelles dans des circuits neuro-mimétiques. Si chacun des acteurs provient d'une discipline différente, l'étude de leur thématique respective montre qu'il est naturel de les regrouper autour de ce thème commun. L'approche que nous considérons la plus productive est alors de structurer la recherche menée par ces acteurs grâce à une infrastructure commune afin de stimuler la production de résultats computationnels de plus large envergure. En effet, cette mise en commun de moyens pour un groupe de travail issu d'équipes différentes permettra de développer des recherches transversales à l'interface de la théorie de l'information, du traitement du signal et de la modélisation. Aborder ces problématiques différentes sur un outil commun favorisera le rapprochement de points de vue entre disciplines séparées : utilisation de méthodes probabilistes communes à l'analyse des données et à la modélisation, utilisation de description dynamiques similaires pour les points de vue macro-, méso- et micro-scopiques, mise en commun de méthodes non biaisées pour l'estimation statistique de quantités d'information ou encore utilisation d'une formalisation et de codes inter-échangeables. Le financement de ce projet est donc essentiel pour ouvrir ces perspectives: * donner rapidement les moyens de travailler ensemble grâce à un outil de calcul puissant,

  • faire émerger des collaborations inter-disciplinaires autour d'un "langage" commun: Il permettra de dialoguer avec un langage de programmation, des librairies et une terminologie communes, en collaboration avec l'initiative NeuralEnsemble,
    • donner une tribune pour cette initiative : En particulier, l'organisation rapide d'une conférence nous permettra d'inviter des personnalités scientifiques qui nous aideront à définir les problématiques communes. L'atelier nous permettra lui de partager avec la communauté marseillaise mais aussi avec nos collaborateurs proches. Il aura lieu une fois le projet mûr et de façon pratique en partageant approches, techniques et résultats.
'''Présentation des thématiques par les acteurs du projet '''

Jean-Luc Blanc IR CNRS, équipe : Neurosciences Théoriques et Système Complexes

Codage neuronal et théorie de l'information: Un problème fondamental est de comprendre comment l’activité d’une population de neurones, observée dans la fréquence ou l’organisation temporelle des trains de potentiels d'action ou dans les potentiels de champs locaux, porte de l’information sur le monde extérieur. Il existe deux méthodes complémentaires pour étudier quantitativement comment le cerveau extrait les caractéristiques et déchiffre les informations encodées dans l’activité de la population neuronale : les algorithmes de décodage et la théorie de l’information. La première méthode prédit un stimulus ou comportement à partir d’un pattern de réponses neuronales. La deuxième précise la quantité d’information contenue dans l’activité neuronale à propos des stimuli, cette quantité est calculée en utilisant le formalisme de la théorie de l’information de Shannon. L'étude des relations statistiques entre les réponses corticales et les stimuli est souvent réalisée dans le cadre de la théorie de l'information pour quantifier l’information transmise par les réponse neuronale par rapport à un ensemble des stimuli. Cette approche a notamment l'avantage de permettre de définir un ensemble optimal de stimuli (ou de représentations neuronales) qui maximise l’information mutuelle entre les stimuli et les réponses. Une procédure adaptative permet de déterminer ces ensembles de manière itérative (Blahut-Arimoto, 1972). Indicateurs pour les systèmes complexes et dynamique de séquences symboliques:Les études expérimentales du système nerveux impliquent l'enregistrement de l'évolution temporelle de l'activité corticale, qui sont comparables à des séquences de symboles. En suivant ce point de vue, le système nerveux, qu'il soit chaotique ou non, est capable de générer des messages et peut donc être considéré comme une source d'information. En s'inspirant de l'idée de Kolmogorov de caractériser les systèmes dynamiques par des quantités comme l'entropie, il est possible d'estimer cet indicateur à partir de signaux expérimentaux provenant de différentes échelles d'observation (EEG, LFP, spikes). Cependant l'estimation d'un tel index (asymptotique) est souvent biaisé par la quantité de donnée limitée et par la structure de corrélation des données. Certaines approches algorithmiques permettent de contourner cette limitation.

** Andrea Brovelli** CR1 CNRS, équipe: Dynamique Neuronale et Apprentissage

Les humains et les singes ont une capacité remarquable à apprendre de nouvelles relations arbitraires entre un stimulus visuel, une action et la conséquence de cette action. L'apprentissage visuomoteur arbitraire est une forme de conditionnement instrumental (ou opérant) qui nous permet d'apprendre les conséquences de nos actes dans un contexte donné (par exemple, ne pas toucher une plaque électrique lorsqu'elle est allumée). Cette fonctionnalité nous assure une grande capacité d'adaptation face aux situations nouvelles et nous permet également de développer des habitudes robustes lorsque le contexte est stable. De plus, certains comportements pathologiques, tels que les désordres compulsifs obsessionnels, et, plus vraisemblablement les addictions, sont étroitement liés à cette faculté cognitive. La compréhension des principes fondamentaux et de leurs implémentations neurales représente un défi important pour les neurosciences cognitives modernes. Mon objectif est de comprendre comment le cortex frontal et les ganglions de la base régissent l'apprentissage instrumental. Plus précisément, on cherchera à identifier le rôle fonctionnel des boucles fronto-striatales et caractériser leur dynamique d'activation au cours de l'apprentissage. Les travaux sont menés à la fois chez le primate humain et non-humain, en s'attachant à intégrer les connaissances issues de ces deux espèces, grâce en particulier à l'application chez l'homme de tâches comportementales développées chez le singe. Notre approche combine les données comportementales et neurales enregistrés à différents niveaux dans le cerveau (activité unitaire, LFPs, EEG intracrânien, IRMf) avec des modèles computationnels de l'apprentissage. Le but à long-terme est d'élucider les liens entre la plasticité cérébrale au cours de l'apprentissage à différents niveaux d'analyse du neurone simple aux réseaux cérébraux.

Emmanuel Daucé Enseignant-chercheur, maître de conférences à l'école centrale de Marseille, équipe: Contrôle et apprentissage des déplacements finalisés.

Nous considérons l'étude analytique ou par simulation des comportements collectifs de populations de neurones. L'étude analytique vise à estimer les comportements attendus des grands ensembles de neurones en fonction des paramètres macroscopiques définissant les catégories de liens entre populations. Différents régimes dynamiques peuvent ainsi être définis, ainsi que des grandeurs dites de "champ moyen" fournissant une description concise de l'activité d'une population entière. Le travail de simulation vient en complément pour aborder des questions pour lesquelles il est plus difficile d'effectuer des prédictions, comme par exemple lorsque l'on considère l'effet de la plasticité synaptique. Dans ce cas, il est fait appel à des concepts et méthodes venus de l'apprentissage automatique (apprentissage de politiques sur la base de signaux de récompenses, codage par fonctions noyaux), appliquées à des dispositifs de contrôle et réseaux de neurones biologiquement inspirés. Des simulations massives servent alors à valider les schémas proposées qui doivent obéir à la double contrainte d'être efficaces (performance accrue au cours de l'apprentissage) et réalistes (en particulier respecter la contrainte de localité de l'information, ce qui exclut de nombreux schémas classiques utilisant des information "off-line" et non locales).

Anna MontagniniCR2 CNRS, équipe: Dynamique de la Perception Visuelle et de l'Action

Je m'intéresse au contrôle visuo-oculomoteur chez les sujets humains en tant que modèle idéal de prise de décision dans des conditions simplifiées et bien contrôlées au niveau expérimental. J'utilise une approche couplée entre expérimentation (psychophysique et analyse des mouvements oculaires à haute résolution) et modélisation (représentation probabiliste de l'information, inférence, théorie de la décision). En particulier, dans le cadre d'un processus simple de décision visuo-oculomotrice (c.f. poursuite oculaire d'une cible en mouvement vers une direction randomisée à chaque essai), je m'intéresse à l'étude de la représentation interne de l'information a priori et de son incertitude. Par information a priori on entend ici l'information préalable à l'observation du stimulus sensoriel qui détermine la réponse motrice correcte: il s'agit donc d'une information prédictive. Dans les expériences, l'information a priori est manipulée statistiquement, de manière à introduire un biais de probabilité dans le type de réponse requise et donc créer des attentes «asymétriques». Ces attentes (ou représentation interne du Prior) se traduisent dans une variable comportementale mesurable, les mouvements d'anticipation de Poursuite Oculaire, qui permettent d'étudier la dépendance du Prior de la statistique de l'entrée sensorielle, ainsi que l'évolution dynamique de cette représentation interne.

Laurent PerrinetCR2 CNRS, équipe: Dynamique de la Perception Visuelle et de l'Action

  • Un problème fondamental en neurosciences est de comprendre comment l'information locale représentée sur le champ récepteur des neurones peut permettre de voir l'émergence d'une perception ou d'un décision comportementale qui soit globale. Je m'intéresse à relier des méthodes de disciplines a priori éloignées (probabilités, physique statistique, informatique, neuroscience) pour proposer des solutions à ce problème. Appliqué à la vision, nous étudions en particulier des stratégies d'intégration spatio-temporelle en les confrontant à des données d'imagerie ou comportementales. Celle-ci sont comparées à des solutions utilisant des représentations distribuées probabilistes qui sont optimales au sens de la théorie de l'information. Elles permettent en particulier d'expliquer comment le système visuel peut intégrer des informations dynamiques, bruitées et souvent ambiguës en utilisant des stratégies inférentielles, comme par exemple par la propagation d'informations prédictives. Ces systèmes sont éminemment contraints par la dynamique et la connectivité des neurones qui les constituent. J'étudie en particulier comment relier la structure de ces systèmes dynamiques avec les fonctions qu'ils implantent. Pour cela, j'utilise des modèles d'apprentissage non-supervisés appliqués à des scènes naturelles. J'étudie alors l'émergence dans la connectivité neuronale de structures qui optimisent un coût fonctionnel. Ces modèles permettent d'étudier des catégories différentes de résultats en fonction de paramètres fondamentaux de l'entrée sensorielle -comme sa complexité par rapport à la taille du réseau- ou des neurones -comme la vitesse de conduction latérale maximale dans une aire corticale. Ce dernier exemple montre la généralité de l'effet de contraintes locales simples avec des effets macroscopiques importants et qui sont essentiels pour des stratégies de calculs parallèles. En effet, elle conditionne la synchronisation, même partielle, de l'information sur l'état des différents nœuds du système pris globalement.


Le projet "Émergence in computo" rassemble des acteurs de disciplines différentes mais de thématiques fortement inter-connectées. Nous pouvons identifier dans les thématiques présentées ci-dessus une approche commune centrée autour du rôle de l'apprentissage et des représentations internes. En particulier, nous voyons émerger les thèmes suivants:

  1. Modélisation des populations neuronales: codage et plasticité (Andrea Brovelli, Emmanuel Daucé, Laurent Perrinet),
  2. Analyse de l'activité neuronales à différents échelles: codage neuronal et plasticité, apprentissage supervisé (Jean-Luc Blanc, Andrea Brovelli, Emmanuel Daucé),
  3. Modélisation comportementale et représentations internes (Jean-Luc Blanc, Anna Montagnini, Laurent Perrinet).

Ce projet vise à financer les moyens computationnels et scientifiques nécessaires à la réalisation de telles perspectives. C'est pourquoi le support de Neuro-IC est essentiel à la réalisation du projet "Émergencein computo". Ces moyens sont de trois ordres:

  • une plateforme commune de calcul sous forme d'un "cluster" (voir devis inclus) : 20k€,
  • de l'animation scientifique, par l'organisation d'un conférence et d'un atelier : 7k€,
  • des moyens de fonctionnement : 3k€.
    • Le budget total de ce projet est donc de 30k€.

Neuroinformatique et neurosciences computationnelles

  • Contexte
  • Objectifs et plus-value attendue
  • Descriptif du programme
  • Enjeu scientifique interdisciplinaire


Comprendre le cerveau reste encore à l’heure actuelle un défi majeur pour les scientifiques de toutes disciplines. Le cerveau représente la structure la plus complexe jamais construite par la nature: cent milliards (1011) de neurones connectés par un réseau d'une complexité inimaginable (1014 à 1015 connections), et qui est capable de traiter des informations très complexes en un temps record, comme l'analyse instantanée d'une scène visuelle. Ce traitement d'information se fait au travers de la mise en action simultanée de groupes de neurones qui forment des patrons d'activité spécifiques. La grande complexité du cerveau lui permet non seulement de traiter des informations complexes, mais aussi elle rend le cerveau d'autant plus vulnérable à divers dysfonctionnements, qui résultent en pathologies telles que la schizophrénie, l'épilepsie, les troubles de la mémoire, du language, etc.

La compréhension des mécanismes cérébraux dépasse donc largement la recherche fondamentale: elle possède des implications directes dans la compréhension et le traitement de pathologies. Elle possède aussi des implications directes au niveau technologique, dans la construction de machines capables de traiter l'information de façon « intelligente », tel que le traitement d'informations du monde réel, scènes visuelles, auditives, etc.

Les neurosciences computationnelles représentent une discipline relativement récente et dynamique, et dont le but affiché est de comprendre le cerveau par des moyens théoriques et informatiques. Cette discipline combine l'expérimentation avec la théorie et les simulations numériques, ce qui permet d'ouvrir toute une série de possibilités nouvelles au niveau scientifique et d'applications technologiques. La neuroinformatique concerne plus spécifiquement les aspects informatiques, tels que la conception et la réalision de méthodes d’analyse mathématiques, la constitution de bases de données en neurosciences et les outils qui s’y rapportent. Les neurosciences computationnelles et la neuroinformatique combinent donc des spécialistes d'horizons différents, tels que les biologistes, physiciens, mathématiciens, informaticiens, ingénieurs, et médecins. Ces spécialistes identifient les principes du fonctionnement cérébral, et ils formalisent ces principes sous forme de modèles théoriques qui sont ensuite testés par la simulation numérique. Ces modèles peuvent également être implémentés directement sur des circuits électroniques, dans le but de créer de nouvelles générations de calculateurs. Ils peuvent aussi être utilisés comme outil pour investiguer les dysfonctionnements du cerveau, en particulier dans le cas où les pathologies résultent d’interactions multiples.

haut de page

Mais plutôt que de représenter des domaines séparés, les neurosciences théoriques et expérimentales fonctionnent souvent ensemble, de façon synergique. Aux USA et en Europe, il existe de nombreux centres où les laboratoires expérimentaux et théoriques se côtoient, comme les centres Bernstein allemands ou Gatsby anglais, le Brain & Mind Institute et l’Institute for Neuroinformatics en Suisse, le RIKEN Institute au Japon, et les nombreux centres américains (Keck, Sloan, Swartz centers, etc) [Pour une liste des centres de neurosciences computationnelles, et leurs coordonnées sur Internet, voir :]. La France est plus timide à ce niveau, avec plusieurs unités INSERM ou CNRS qui combinent les expertises théoriques et expérimentales, mais aucun institut ou centre plus ambitieux n’a encore pu voir le jour (cfr. Faugeras, Samuelides & Frégnac, A future for systems and computational neuroscience in France ? J. Physiol. Paris 101 : 1-3, 2007).

À l’image de cette interaction théorie/expérience, de nombreux projets Européens ont vu le jour, et certains de ces projets ont une renommée internationale. Il faut noter l’existence de programmes spécifiquement inter-disciplinaires, comme le programme Future and Emerging Technologies (FET) de la Communauté Européenne, et qui vise à subventionner des projets pluri-disciplinaires, ambitieux et innovants. De nombreux projets de neurosciences, alliant la théorie et l’expérimentation, avec des nouvelles technologies, ont été subventionnés par ce programme. En particulier, des projets récents tels que FACETS, DAISY et SECO consistent à allier l’expérimentation biologique, pour caractériser les neurones et les circuits neuronaux, avec des approches théoriques pour formaliser ces principes biologiques, et ensuite l’ingénierie pour implémenter ces modèles sur des circuits intégrés. Il en résultera de nouvelles générations de circuits intégrés qui fonctionneront de façon analogue aux circuits neuronaux réels. Ces circuits pourront être utilisés pour tester des principes biologiques, et aider à l’exploration des propriétés des circuits neuronaux, suggérer de nouvelles expériences, etc, la boucle est bouclée. Une des réalisation de ces projets a été la conception de circuits intégrés contenant un grand nombre de neurones de type intègre-et-tire, qui permettront la simulation (analogique) de réseaux de centaines de milliers de neurones, avec une vitesse de calcul de 100,000 fois plus rapide que le temps réel, une performance qui dépasse celle des plus gros calculateurs parallèles !

Même si des groupes Français occupent une place importante dans des projets tels que FACETS et DAISY, il faut déplorer l’absence de programmes ambitieux à l’échelle nationale. Plusieurs actions ont vu le jour (ACI neurosciences computationnelles, programmes CTI et neuroinformatique, par exemple), et elles ont mené à des projets intéressants, mais leur budget limité n’a pas permis de vraiment structurer la communauté théorique et computationnelle en neurosciences. Réaliser une telle structuration, et la stabiliser, nécessiterait de mettre sur pied un réseau d’excellence avec un budget important et des postes pour les nombreux jeunes chercheurs du domaine. Par exemple, l’inititative récente des Bernstein Centers en Allemagne a permis de structurer le domaine de façon très significative en créant plusieurs centres, et de nombreux postes de chercheurs. Aucune initiative de cette envergure n'a encore pu voir le jour en France.

Objectifs et plus-value attendue

L'objectif du programme Neuro-IC est double :

  • de soutenir des actions fortement interdisciplinaires comme exposé ci-dessous. Le but de ce soutien est de jouer un rôle de tremplin vers la réalisation et l'élaboration de projets ambitieux qui combinent différentes disciplines, comme la biologie, la physique, l'ingénierie et l'informatique;
  • d'identifier différentes équipes fortes dans le domaine et qui formeraient le noyau d'un éventuel futur réseau d'excellence dans le domaine des neurosciences computationnelles et de la neuroinformatique.

Descriptif du programme

Le programme Neuro-IC soutiendra des projets de recherche fondamentale et de recherche appliquée sur des problématiques liées aux Neurosciences, abordées de manière interdisciplinaire avec la participation significative de chercheurs de disciplines telles que les Mathématiques, la Physique, l’Informatique, la Robotique ou le Traitement du signal. Une attention particulière sera donnée aux projets à l'interface neurosciences/sciences humaines. Le but du programme est en particulier de soutenir des actions interdisciplinaires qui constituent des projets aux idées radicalement nouvelles, de préférence entre partenaires qui n’ont jamais collaboré, et/ou jamais contribué à ce champ de recherche. Les projets qui comportent un facteur de risque substantiel sont particulièrement encouragés. Typiquement, le programme soutiendra des actions à caractère exploratoire et dont le niveau de risque (et l’absence de données préliminaires) interdisent l’écriture d’un projet de type ANR ou européen. Le programme servira donc de tremplin vers l’élaboration de projets plus ambitieux – cet aspect fondateur sera particulièrement important dans l’évaluation des projets.

Il n’y a pas de restriction thématique pour autant que les projets allient clairement les neurosciences avec au moins une autre discipline, dans le cadre d'un projet de nature théorique, numérique ou d’ingénierie. A titre d'exemples de thèmes, on peut mentionner l’étude de la relation structure-fonction dans les réseaux neuronaux (lien entre connectivité et comportement), l’étude de la dynamique d’émergence d’états pathologiques, l’étude du codage neuronal, de l’attention ou de la cognition, ainsi que la conception de nouveaux types de calculateurs inspirés de l’architecture du cerveau, des projets de robotique bio-inspirée, ou encore des projets alliant expérimentation et modélisation sur des thèmes issus des sciences humaines et sociales. Le programme soutiendra les thèmes traditionnels de la neuroinformatique, tels que la constitution de bases de données en neuroscience, ou la conception de nouvelles méthodes d’analyse de données. L’aide à la conception et/ou l’étude de faisabilité de nouvelles techniques expérimentales en neuroscience (par exemple nouvelles techniques d’imagerie) sera également soutenue, pour autant que ce type d’étude soit exploratoire et fondateur. Enfin, l'application de nouvelles méthodes de la physique théorique aux neurosciences est encouragée.

Les budgets demandés seront typiquement du fonctionnement, de l’équipement et des missions, de l’ordre de 30,000 Eur. Le programme ne pourra pas financer de salaire. Il est important qu’il y ait une adéquation entre le projet demandé et le budget (les « recyclages » de projets antérieurs ne seront pas évalués). L'usage envisagé de la somme demandée doit faire l'objet d'un budget détaillé et clairement motivé (une page maximum).

Les demandes devront faire l'objet d'une présentation scientifique courte, 5 pages maximum (sans annexe, références incluses), complétée d'un CV bref des partenaires principaux (une page maximum). Les aspects exploratoires et interdisciplinaires doivent être explicités (ils constituent les critères principaux d’acceptation, en plus de l’excellence scientifique du projet). Chaque projet sera examiné par 2 ou 3 rapporteurs de disciplines différentes.

L’appel à projet sera publié début janvier, avec une date limite de soumission début février. Ceci permettra de financer les projets retenus en mars de l’année d’acceptation. Les subventions accordées, utilisables pour toute dépense à l'exception de salaires ou vacations, seront à dépenser avant le 31 décembre de la même année.

À l’issue du projet, il sera demandé aux auteurs de rédiger un rapport court (de l'ordre de 5 pages) sur les résultats obtenus au cours du projet et les développements qu’il a contribué à réaliser (publications, soumission de projet ANR ou Européen, démarrage d’autres projets plus ambitieux, etc).

Enjeu scientifique interdisciplinaire

Le rôle majeur de ce programme est de favoriser, par le rapprochement Neurosciences-Neuroinformatique, une meilleure dynamique dans l’approche de la complexité du système nerveux. Déjà opérationnelle dans quelques grands centres (Bernstein, Gatsby, Brain & Mind Institute, Institute for Neuroinformatics, RIKEN Institute, Keck, Sloan, Swartz centers, etc), cette approche contribue au développement de la recherche fondamentale mais aussi, dans des pathologies chroniques, graves et fréquentes (maladies neurodégénératives, paraplégie, douleur, maladies mentales) à la définition de nouvelles stratégies thérapeutiques (prothèse, robot, nanotechnologie et neurostimulation, réalité virtuelle et troubles de la représentation du corps dans l’autisme…). Cette approche est également indispensable dans la conception de nouvelles architectures de calcul, inspirées du cerveau.

Le programme Neuroinformatique et Neurosciences Computationnelles peut aussi être vu comme une étape préliminaire et nécessaire à un plan d’action structurant plus ambitieux à venir, et dont la mise en place dépendra de l’ambition scientifique des institutions concernées).