Posts about sciblog (old posts, page 5)

2010-11-07 wma to MP3

2010-11-11 14:53:20
  • Mplayer has changed the syntax for pcm (wav) output. The pcm -aofile <filename> options has changed to -ao pcm:file=<filename> which doesn't like dos filenames (c:\bla\...). so I'm using a real hack to make a tempfile in the current directory (for windows only, *nix works normally). This script uses the syntax for the newer version of Mplayer, if you need the older syntax comment out the current method near line 286 and uncomment the one above it. This should be pretty clear when looking at the code.
./ -h
./  -i "*.wma" -r --to-mp3 --dry-run
./  -i "*.wma" -r --to-mp3
./  -i "*.wma" -r --to-mp3 --normalize --delete


2010-11-04 installing Dovecot on MacOsX using MacPorts

2010-11-05 15:40:38
  • master howto:

  • Install

    sudo port install dovecot
    sudo port load dovecot
  • Configure

    sudo cp /opt/local/etc/dovecot/dovecot-example.conf  /opt/local/etc/dovecot/dovecot.conf
    sudo vim /opt/local/etc/dovecot/dovecot.conf
  • Mine reads (it's just meant to access imap files from the local mail server and not to serve outside the localhost):

    protocols = imap
    listen = localhost:10143
    disable_plaintext_auth = no
    ssl = no
    mail_location = maildir:~/Maildir
    protocol imap {
    auth default {
      mechanisms = plain
      passdb pam {
        args = login
      userdb passwd {
          args =
    user = root
    dict {
  • Reload

    sudo launchctl stop org.macports.dovecot
    sudo launchctl start org.macports.dovecot
  • It does not work on the first try... so read documentation

    less /opt/local//share/doc/dovecot/documentation.txt
    less /opt/local//share/doc/dovecot/auth-protocol.txt
    less /opt/local//share/doc/dovecot/wiki/PasswordDatabase.PAM.txt
  • Authentification

    ls -l /etc/pam.d/
    sudo vim /etc/pam.d/dovecot

    with /etc/pam.d/dovecot being

    auth       required
    account    required
    password   required
    session    required


2010-11-03 rsync to an alternate ssh port

2010-11-03 09:00:39
  • Q: sometimes you try to copy files using rsync but the server uses an alternate port than the usual 22...
  • A: rsync-av-e'ssh-p2222'HOST:~/folder/*dest


2010-10-31 Marseille : bookmarks and tips

2010-11-11 13:47:22


2010-10-27 installing python and its components

  • Python is often pre-installed on your system or easy to download. More difficult is to get the essential packages (numpy, scipy, matplotlib, ipython) and their dependencies installed. Here, I list some of the possibilities.

on MacOsX: using MacPorts

  • A basic installation procedure is to use the enthought distribution,

  • Another route is to use MacPorts. It is a generic package manager inspired by what you get using Debian's apt scheme.

  • Once installed, do on the command-line

    • on Leopard:

      sudo port install py25-pil py25-numpy py25-scipy py25-ipython py25-matplotlib +cairo+latex+tkinter
      sudo python_select python25

      (Note: you may also use python26 on Leopard).

    • on Snow Leopard:

      sudo port install py26-numpy py26-scipy py26-ipython py26-matplotlib
      sudo port install py26-pyobjc2-cocoa py26-pil py26-distribute py26-pip py26-py2app python_select
      sudo port install vtk5 +carbon +qt4_mac +python26 py26-mayavi
      sudo python_select python26

      to install a bunch of useful python packages.

    • to get a package that is not available through macports, do:

      sudo easy_install progressbar
  • for visionEgg :

    sudo port install py26-opengl py26-game
    sudo easy_install visionegg

  • on Snow Leopard, you'll have to follow these instructions.

Debian / Ubuntu

DistUtils, PIP & Easy Install

  • most of the time, there's a file:

    python install --prefix=~
  • See

  • to install numpy (same for pylab, scipy, or visionegg), simply do

    easy_install numpy
  • most of the cases, on a test server or a single-user machine, you may find more useful to install in your home dirtectory, for instance:

    easy_install -d ~/lib/python2.5/site-packages/ numpy
  • to upgrade, use

    easy_install -U numpy
  • you can browse the list of available packages.

  • for pip:

  • you may create a script tu update all packages:

    for i in `python -c "for dist in __import__('pkg_resources').working_set: print dist.project_name"`:
    echo "`easy_install -U $i`"
    echo "++++++++++++++++++++++++++++++++++++++++++++++++++"
  • to install PIL, use

    easy_install -d lib/python2.6/site-packages/ --find-links Imaging

SVNs: bleeding edge versions

  • numpy

    svn co numpy
    cd numpy
    python build
    sudo python install
    rm -rf build
    cd ..
  • SciPy

    svn co scipy
    cd scipy
    python build
    sudo python install
    rm -rf build
    cd ..
  • pylab

    svn co matplotlib
    cd matplotlib
    python build
    sudo python install
    sudo rm -rf build
    cd ..
  • SPE

    svn checkout svn://
  • PIL

    tar zxvf  Imaging-1.1.6.tar.gz
    cd Imaging-1.1.6
    python build_ext -i
    python install
  • gsl

    cvs -d login
    cvs -d checkout gsl
    cd gsl/
    ./configure --enable-maintainer-mode
  • pytables

    • dependency on HDF

      tar zxvf hdf5-1.6.5.tar.gz
      cd hdf5-1.6.5
      ./configure --enable-cxx
      make install
      h5ls -r  Documents/Sci/projets/virtualV1/experiments/benchmark_one/results/benchmark_retina_high.h5
      tar zxvf Pyrex-
      cd Pyrex-
      python build
      sudo python install
      rm -rf build
    • install

      #svn co pytables
      tar zxvf pytables-1.4.tar.gz
      cd pytables-1.4
      export DYLD_LIBRARY_PATH=/sw/lib # or in .bashrc
      python install --hdf5=/sw
      cd ..
  • pygtk

    tar xvfj pygtk-2.8.6.tar.bz2
    cd pygtk-2.8.6
    sudo make install    # or without sudo as root
    cd ..


2010-10-27 Master M2 Sciences

Travaux pratiques : modèle bayesien de détection du mouvement d'objets

  • Le 27/10/2010, de 14h00 à 17h00 dans la salle formation de l'INCM (bâtiment N du GLM, 31, chemin Joseph Aiguier 13402 Marseille cedex).
  • alert me prévenir si vous n'avez pas un ordinateur portable personnel!

principe du TP

  • But: définition de la probabilité de vraissemblance pour des translations d'images grâce à l'utilisation d'un script générique
  • Méthode: montage d'expérience:
    1. expérience simple
    2. expérience avec vitesse entre 0 et une période
    3. effet du contraste sur le wagon wheel illusion
  • Résultats:
    1. une figure montrant 2 images successives d'un film, la densité de probabilité de mouvement. les images seront: un point, une ligne (réseau), un barber-pole, une image naturelle.
    2. une figure montrant l'influence d'un bruit ajouté sur ces images
    3. une figure montrant l'influence de la vitesse sur le mouvement d'un réseau


expérience simple

  • pour charger la boîte à outils :

    import motion_plant as mp
  • pour visualiser une image

    I1, I2 = mp.generate(V_X = 3.5)
  • Calcule la proba sur les vitesses V pour les 2 images:

    1. Il faut définir V avec la fonction velocity_grid, par exemple:

      V= mp.velocity_grid(v_max = 5.)

      (v_max est important il donne la valeur max des proba à tester)

    2. puis invoquer:

      P= mp.proba(V, I1, I2)
  • on peut voir la proba avec

    mp.show_proba(V, P)
  • et trouver celle qui correspond au maximum:

    mp.ArgMaxProba(V, P)

    ou la moyenne

    mp.MeanProba(V, P)
  • essayez différentes images...

    1. image naturelle

      I1, I2 = mp.lena()
    2. réseau carré

      I1, I2 = mp.generate(V_X = 2.5, square=True)
  • et différents paramètres, comme la variance de la vraissemblance

    sigmas = np.logspace(-2, 0, 10)
    for sigma in sigmas:
        I1, I2 = mp.generate(V_X = 2.5)
        P= mp.proba(V, I1, I2, sigma=sigma)
        mp.show_proba(V, P)
        pylab.title('sigma ' + str(sigma))
        print mp.ArgMaxProba(V, P), mp.MeanProba(V, P)
  • ou la variance du prior

    sigmas = np.logspace(-1, 1, 10)
    for sigma_p in sigmas:
        I1, I2 = mp.generate(V_X = 2.5)
        P= mp.proba(V, I1, I2, sigma_p=sigma_p)
        mp.show_proba(V, P)
        pylab.title('sigma_p ' + str(sigma_p))
        print mp.ArgMaxProba(V, P), mp.MeanProba(V, P)

expérience avec différents niveaux de bruit

  • pour créer une liste de bruits à tester, utiliser

    noises = np.linspace(0, 2., 10)
    for noise in noises:
        I1, I2 = mp.generate(V_X = 2.5, noise=noise)
        P= mp.proba(V, I1, I2, sigma_p=1.)
        print mp.ArgMaxProba(V, P), mp.MeanProba(V, P)
  • à comparer avec le cas où on est plus conservateur:

    N_contrast =10
    contrasts = np.linspace(0, 1., N_contrast)
    V_hat = np.zeros((N_contrast,2))
    for i, contrast in enumerate(contrasts):
        I1, I2 = mp.generate(V_X = 2.5, contrast=contrast, noise=.2,)
        P= mp.proba(V, I1, I2, sigma_p=10.)
        V_hat[i,:] = mp.MeanProba(V, P)
    pylab.plot(contrasts, V_hat[:,0], 'r')
    pylab.plot(contrasts, V_hat[:,1], 'r--')
    V_hat = np.zeros((N_contrast,2))
    for i, contrast in enumerate(contrasts):
        I1, I2 = mp.generate(V_X = 2.5, contrast=contrast, noise=.2,)
        P= mp.proba(V, I1, I2, sigma_p=1.)
        V_hat[i,:] = mp.MeanProba(V, P)
    pylab.plot(contrasts, V_hat[:,0], 'g')
    pylab.plot(contrasts, V_hat[:,1], 'g--')
  • ou avec une image naturelle:

    N_contrast =10
    contrasts = np.linspace(0, 1., N_contrast)
    V_hat = np.zeros((N_contrast,2))
    for i, contrast in enumerate(contrasts):
        I1, I2 = mp.lena()
        P= mp.proba(V, I1, I2, sigma_p=10.)
        V_hat[i,:] = mp.MeanProba(V, P)
    pylab.plot(contrasts, V_hat[:,0], 'b')
    pylab.plot(contrasts, V_hat[:,1], 'b--')

expérience avec un réseau à différentes vitesses

  • pour créer une liste de vitesses à tester, utiliser

    speeds = np.linspace(0, 10., 10)
    V_hat = np.zeros((10,2))
    for i, V_X in enumerate(speeds):
        I1, I2 = mp.generate(V_X = V_X, frequence=12)
        P= mp.proba(V, I1, I2, sigma_p=1.)
        V_hat[i,:] = mp.ArgMaxProba(V, P)
    pylab.plot(speeds, V_hat[:,0], 'g')
    pylab.plot(speeds, V_hat[:,1], 'g--')
  • ... c'est le Wagon-wheel effect!


2010-10-20 Master M2 Sciences

Laurent Perrinet
Laurent Perrinet - Team InViBe, Institut de Neurosciences de la Timone (UMR 7289)
CNRS - Aix-Marseille Université Researcher

Les Neurosciences Computationelles étudient l'émergence dans les réseaux neuronaux (structure) des fonctions cognitives (fonction). Durant ce cours, nous allons définir ce paradigme de façon générique avant de l'appliquer à trois cas particuliers. D'abord nous allons étudier un exemple de réseau de type Bayesien appliqué à la détection du mouvement visuel. Ensuite, nous étudierons un exemple de réseau de neurones abstraits appliqué au codage adaptatif d'images. Enfin, l'étude de différents types de connectivité dans des réseaux de neurones impulsionnels réalistes.

Le cerveau est-elle une machine de Turing ?

Le Système Nerveux Central: quelques chiffres

  • Cerveau = 100 milliards de neurones (cerveau humain)
  • 2% du poids, 20% de la consommation énergétique (5W)
  • 1mm^3 = 90 000 neurones / 700.000.000 synapses / 4 km d’axone / 0,5 km de dendrites

Émergence dans des réseaux d'information

  • Approche classique: réductionisme , atomisme
  • computere
  • émergence ( {en} {fr} )

Neurosciences Computationelles?

  • Les Neurosciences Computationelles étudient l'émergence dans les réseaux neuronaux (structure) des fonctions cognitives (fonction) en termes de traitement d'information (méthode).

    alert ne pas confondre Neurosciences Computationelles et NeuroInformatique !

  • convergence interdisciplinaire de :

    • neurosciences (physiologie, psychophysique)
    • mathématiques (EDP, physique statistique, probabilités et statistiques, calcul stochastique, théorie des graphes, physique statistique, ...)
    • informatique (théorie de l'information, théorie computationnelle, simulation de modèles)
  • applications à la compréhension de la biologie, à répondre aux pathologies + création de nouveaux paradigmes computationnels

Histoire des Neurosciences Computationelles

  • suit d'abord l'histoire des neurosciences
  • 1930 : Turing
  • 1950 : Hebb / von Neumann
  • 1950 : réseaux de neurones, parallelisme (PDP, Rosenblatt)
  • 1980 : étude des systèmes complexes, arrivée de l'émergence (Amari, Grossberg, Kohonen, Hopfield, physique statistique), premières définitions des Neurosciences Computationelles (congrès de Carmel)
  • 1990 : machine learning (NIPS)
  • 2000 : machines hybrides, science de la complexité (probabilités), approche système (explosion du volume de données)
  • 2010 : ...

Niveaux d'analyse de David Marr

fonction / définition algorithmique / méthode hardware / structure, support neural
analyse spectrale décomposition de Fourier FFT
cognition et comportement (modèles de prise de décision; conditionnement classique; conditionnement opérant; apprentissage par réenforcement; neuroéconomie) Traitement de l'information (traitement sensoriel; filtres linéaires et champs récepteurs; estimation des champs récepteurs; détecteurs de contour; modèle de Hubel et Wiesel; statistiques des images naturelles; théorie de l'information; analyse en composantes indépendante; décodage neuronale; codage par population) Dynamique et mécanismes (biophysique d'un neurone; génération de potentiels d'action; réseaux de neurones feedforward et récurrent; réseaux attracteurs; fonctions d'énergie, énergie de Liapounov; apprentissage et plasticité synaptique; mémoires associatives)
Modèles des systèmes neuronaux : La perception visuelle, système vestibulaire, contrôle oculomoteur, contrôle des membres, prise de décision. Théorie des réseaux neuronaux : Codage neuronaux, apprentissage supervisé et non supervisé, apprentissage par renforcement. Modèles de neurones : Modèles de membrane, potentiels d’action, équation Hodgkin-Huxley, modèles de compartiments, canaux, synapses.
suivi d'objet détection d'objet circuit V1-MT/MST-FEF

Suivi d'objet: l'exemple de l'Occular Following Response

Figure Stimuli used for testing OFR. (Left) Grating in a disk aperture with varying contrast and(Middle)*with varying diameters.*(Right) Barberpole.


Modèles Probabilistes


Avantages des représentations probabilitistes

  1. Règles de calcul probabiliste / lien avec la théorie de l'information
  2. Le modèle génératif (vraissemblance) permet de baser inférence (échelle temporelle du codage) et apprentissage (échelle temporelle de l'adaptation)
  3. Modèles hiérarchiques
  4. Réseaux bayesiens

La règle de Bayes

  1. $P( \vec{V} | {\bf I} ) \propto P( {\bf I} | \vec{V} ). P( \vec{V} )$ :
    1. on veut calculer la probabilité a posteriori,
    2. Le modèle génératif permet de définir la probabilité de vraissemblance de tous les modèles directs,
    3. On introduit un prior (ici perceptif) modulant cette probabilité.

De la mesure aux probabilités

  • Soit $\mathbf{I}$ une image contenant du mouvement
  • La meilleure estimation de la vitesse de translation est: $$\vec{v}^\ast = E( \vec{V} | \mathbf{I} ) = \int \vec{V} dP( \vec{v} | \mathbf{I} )$$



  • $$P( \vec{V} | {\bf I} ) \propto P( {\bf I} | \vec{V} ). P( \vec{V} )$$

Un modèle du mouvement

  • Connaissant $\vec{V}$, on estime que $\mathbf{I}(\vec{x},t) \approx \mathbf{I}(\vec{x} - \vec{V} . dt ,t-dt)$
  • $$P( {\bf I} | \vec{V} ) \propto \exp(- \frac{C2 . \mathcal{T}(\mathbf{I}_{100})2}{2.\sigma_m^2})$$
    • avec $\mathcal{T}(\mathbf{I}_{100}) = \| \mathbf{I}_{100}(\vec{x},t) - \mathbf{I}_{100}(\vec{x} - \vec{V} . dt ,t-dt) \|$
    • Son contraste est $C$ par rapport à une référence: $\mathbf{I}=C.\mathbf{I}_{100}$
  • Hypothèse quadratique: $$P( {\bf I} | \vec{V} ) = \mathcal{N}( \vec{V_m} , \sigma_m )$$

inclusion d'un prior basse vitesse

  • $$P( \vec{V} ) = \mathcal{N}( 0 , \sigma_p )$$
  • On en déduit: $$ P( \vec{V} | \mathbf{I} ) \propto \exp(- \frac{C2 . \| \vec{V}-\vec{V_m} \|2}{2.\sigma_m2 } - \frac{ \| \vec{V} \|2}{2.\sigma_p^2 })$$



  • On définit le gain $$\gamma (C) = \frac{ \vec{V}(C)}{ \vec{V_m} }$$
  • On trouve: $$\gamma (C) \propto \frac{C2}{C_{50}2+C^2}$} with $C_{50} \propto \frac{\sigma_p}{\sigma_m}$$

intégration d'informations indépendantes

  • $\mathcal{N} (\vec{V}_ \bf n C \bf n )=\frac{1}{\sqrt{det(2 \pi C \bf n )}}.exp(\frac{1}{2} (\vec{V}-\vec{V}_ \bf n )T C{{\bf n}}{-1} (\vec{V} - \vec{V}_ \bf n )$

  • avec $C_

    \bf n

    $ donné par

    \left( \begin{array}{ccc}%
    \cos(\theta) & -\sin(\theta) \\%
    \sin(\theta) & \cos(\theta)%
    \end{array} \right)%
    \left( \begin{array}{ccc}%
    \sigma_{{\bf n}}^2 & 0 \\%
    0 & \sigma_2^2%
    \end{array} \right)%
  • Indépendence des bruits de mesure: $ P( \vec{V} | \mathbf{I} ) = \Pi_

    \bf n

    P( \vec{V} | \mathbf{I} , {\bf n})=\mathcal{N} (\vec{v}_m,C)$ avec :

    C^{-1}              &=& \sum C^{-1}_{{\bf n}}\\
    C^{-1} . \vec{v}_m &=& \sum C^{-1}_{{\bf n}} \vec{v}_{{\bf n}}
  • d'où

    C_{{\bf n}}^{-1} = %
    \left( \begin{array}{ccc}
    \cos(\theta) & \sin(\theta) \\
    -\sin(\theta) & \cos(\theta)
    \end{array} \right)
    \left( \begin{array}{ccc}
    \sigma_{{\bf n}}^{-2}  & 0 \\
    0 & \sigma_2^{-2}
    \end{array} \right)

intégration spatio-temporelle

  • intégration sur la surface d'un disque:

    \gamma(d) = \frac{C^2}{C_e^2} . \frac{ 1- \exp(-\frac{d^2}{2.\omega^2}) }{ 1 + \frac{C^2}{C_e^2}.(1- \exp(-\frac{d^2}{2.\omega^2})) }%
  • avec un champ inhibiteur

    \gamma(d_c) = \frac{ \frac{C^2}{C_e^2} . g_e }{ 1 + \frac{C^2}{C_i^2}. g_i  + \frac{C^2}{C_e^2}. g_e}
    \mbox{ with }
    g_e              &=& 1- \exp(-\frac{d_c^2}{2.\omega^2}) \\
    g_i &=& 1- \exp(-\frac{d_c^2}{2.\omega_i^2})
  • extensible à d'autres formes d'intégration

Animation of the formation of RFs during aSSC learning

Des probas à une définition du coût neural

$$ {\bf I} = \Psi \cdot \vec{c} + \vec{\nu} $$

$$ \mathcal{C}( {\bf I} | \vec{c} , \Psi) = -\log P( {\bf I} | \vec{o} , \Psi ) $$ $$ \mathcal{C}( {\bf I} | \vec{c} , \Psi ) = \log Z + \frac{1}{2\sigma_n2} \| {\bf I} - \Psi \cdot \vec{c} \|2 - \sum_i \log P(c_i | \Psi)$$ $$ \mathcal{C}( {\bf I} | \vec{c} , \Psi ) = \log Z + \frac{1}{2\sigma_n2} \| {\bf I} - \Psi \cdot \vec{c} \|2 - \lambda \| \vec{c} \|_0$$

  • un problème inverse insoluble (NP-complet). Soyons gourmants!

du coût neural au code neuronal

apprentissage par descente de gradient

  • connaissant le $\vec{c}$ optimal, $\forall i, \Psi_{i} $ devient $ \Psi_{i} + \eta c_{i} ({\bf I} - \Psi\cdot\vec{c}) $

codage par Matching Pursuit

  1. pour un $\Psi$ donné, on choisit $ i^\ast = \mbox{ArgMax}_i (\rho_i)$ avec $\rho_i = <\frac \bf I {\| {\bf I} \|} , \frac{ \Psi_i}{\| \Psi_i\|} > $
  2. comme $ {\bf I} = a_{i\ast} \dico_{i\ast} + \bf{R} $, utilisons $\bf{R}$ et retournons à 1.

Pour plus d'informations, voir Perrinet, Neural Computation (2010).


D'autres modèles de plasticité

Apprentissage non-supervisé

  1. Apprentissage Hebbien linéaire (PCA), décorrelation
  2. Réseaux Winner-take-all, clustering
  3. Codes distribués parcimonieux (sparse coding)

Plasticité et cartes corticales

  1. Self-organizing maps, Kohonen nets
  2. Modèles de ré-organisation topographique
  3. Apprentissage de sous-variétés

Codage Neural et systèmes dynamiques linéaires

  • systèmes dynamiques linéaires $$ \frac{d}{dt} \mathbf{x}(t) = \mathbf{A} \mathbf{x}(t) $$
  • Les racines de $det(A- \lambda I)$ sont les valeurs propores de $A$. Le signe des racines determine la stabilité du système.
  • Pour 2-dimensions, le polynôme characteristique est de la forme $\lambda2-\tau\lambda+\Delta=0$. Les racines sont donc: $$ \lambda=\frac{\tau \pm \sqrt{\tau2-4\Delta}}{2}$$

Codage Neural et systèmes dynamiques NON linéaires


Codage Neural et systèmes dynamiques NON linéaires (2)


Codage Neural et systèmes dynamiques NON linéaires (3)


Des points à retenir

  • Importance de poser (toutes) les hypothèses: a-t-on compris l'ensemble du signal?
  • Compréhension de la cognition à différents niveaux d'analyse, à différentes échelles.
  • Nous quittons le siècle de l'information. Nous entrons dans le siècle de la complexité.


2010-10-09 nous

2010-10-09 14:59:09
  • Nous (pronounced /ˈnuːs/, Greek: νοῦς or νόος) is a philosophical term for mind or intellect. Outside of a philosophical context, it is used, in coloquial English, to denote "common sense," with a different pronunciation (/naʊs/), and sometimes a different spelling (nouse or nowse).


2010-10-06 Émergence

2010-10-06 08:45:12

  • dossier de La recherche de février 2007: article du philosophe Michel Bitbol + entretien de Robert Laughlin + article d'exemeples + frise historique
  • article très compréhensif de Bitbol:
    1. La nature est-elle un puits sans fond?
    2. l'émergence s'oppose au réductionnisme atomiste
    3. répond à l'argument atomiste: "si l'ensemble est plus que la somme des parties, alors ces parties seront les nouveaux atomes": "la propriété émergente est autonome des parties qui la compose" (elle sont multi-réalisables ou survenantes. On observe les même organisations à différentres échelles de la physique: cristaux, cerveau, internet.
    4. d'où une nécessité de montrer la robustesse de la loi émergente par rapport à des perturbations du substrat. principe de protection.
    5. pré-existence du phénomène par rapport à la loi, qui n'est là que pour décrire (au mieux) comme pour la
    6. met dans le contexte politique de la science physique (atomistes nucléaires vs. emergentistes de la matière)
    7. "L'option du "sans fond" à un avantage. En elle, la question de la base ne se pose plus en termes d'existence mais en termes de méthode." Il est dur de se déplacer du centre du monde où l'homme s'est placé. L'intelligence n'est qu'un de ces propriétés émergentes, n'est plus "l'œil divin" au centre de la ronde des éléments.

  1. article de Laughlin, moins de contenu.
  2. exemples
    1. comportements collectifs
    2. L'Équation de Langevin (1908) est une équation stochastique pour le mouvement brownien.
    3. réseaux small world
  3. frise historique
    1. anaxagore contre l'idée du vide
    2. Leibnitz: charque monade (partie) reflète le tout
    3. G. Bruno = univers infini. brulé par l'eglise (peut-être permet de mettre en lumière le sermon récent du pape sur les athées)
    4. Lewes: origine du mot émergence
    5. RM Hare: Survenance = une propriété survient sur une autre si des variations pour lea première impliquent des différences dans la seconde, mais pas nécessairement l'inverse (une définition de la causalité?)
  4. notes:
    1. on parle toujours d'objet vs des actions sur ces objets: n'est-ce pas une vision anthropomorphique de l'homo faber?
    2. et le "contrat positiviste" ? « La philosophie positive est l’ensemble du savoir humain, disposé suivant un certain ordre qui permet d’en saisir les connexions et l’unité et d’en tirer les directions générales pour chaque partie comme pour le tout. Elle se distingue de la philosophie théologique et de la philosophie métaphysique en ce qu’elle est d’une même nature que les sciences dont elle procède, tandis que la théologie et la métaphysique sont d’une autre nature et ne peuvent ni guider les sciences ni en être guidées ; les sciences, la théologie et la métaphysique n’ont point entre elles de nature commune. Cette nature commune n’existe qu’entre la philosophie positive et les sciences. Mais comment définirons-nous le savoir humain ? Nous le définirons l’étude des forces qui appartiennent à la matière, et des conditions ou lois qui régissent ces forces. Nous ne connaissons que la matière et ses forces ou propriétés ; nous ne connaissons ni matière sans propriétés ou propriétés sans matière. Quand nous avons découvert un fait général dans quelque une de ces forces ou propriétés, nous disons que nous sommes en possession d’une loi, et cette loi devient aussitôt pour nous une puissance mentale et une puissance matérielle ; une puissance mentale, car elle se transforme dans l’esprit en instrument de logique ; une puissance matérielle, car elle se transforme dans nos mains en moyens de diriger les forces naturelles. » — Emile Littré, Auguste Comte et la philosophie positive


2010-10-05 gmail Exchange ActiveSync

2010-10-05 14:59:30