Cette discussion, initiée sur le fil "La grille de rentrée 2009", mérite bien son fil. Elle va donc se poursuivre ici, avec la dernière réponse en date de Dom. ("masterkey" c'est moi, Dom.)
Bon, plusieurs axes de réponse à mon avis. Pour fixer les choses, on va considérer que machine = ordinateur classique, c'est-à-dire "machine de turing", qui peut se résumer idéalement à ça : une machine dotée d'un ruban de longueur infinie, sur lequel elle est capable de lire ou d'écrire des nombres, et de déplacer sa tête de lecture/écriture en fonction de règles sur les nombres qu'elle lit. Comme toute l'arithmétique peut se résumer à un jeu d'écriture, cette machine idéale sait, en gros, faire des calculs arithmétiques indéfiniment grands.
Le but de la discussion est de prouver ou non - ou prouver l'inverse - que le travail effectué par le cerveau humain (si l'on accepte que c'est bien le cerveau qui est le support de la pensée) a quelque chose de fondamentalement infaisable via un traitement arithmétique.
* L'un de tes arguments à cela est que l'homme a créé la machine à faire de l'arithmétique, ce qui sous-entend(c'est ce que j'en comprend), qu'elle lui est subordonnée, elle ne peut faire que moins bien que lui.
-> Là, je te répondrais que l'élève peut dépasser le maître sans problème, ou la créature son créateur, sur le plan intellectuel. Issus d'une cellule procaryote, comme tout le vivant, la lignée humaine n'en est pas moins supérieure intellectuellement (je ne suis pas sûr de la validité de l'argument, mais j'arrive pas non plus à l'écarter). Sur un plan plus proche de la discussion, on peut facilement créer des choses qui nous dépassent : j'ai déjà été battu aux échecs par un programme fait par moi. Egalement, le fait que nous créions un objet ne veut pas dire qu'on en maîtrise toute la portée, ni toute les conséquences : l'homme est le créateur des axiomes de l'arithmétique. Pourtant, des problèmes existent, dans le langage de l'arithmétique, qui mettent plusieurs siècles à être résolus, voire qui sont purement insolubles (indépendants des axiomes).
Enfin, il se pourrait également que les principes qui gouvernent le fonctionnement de l'ordinateur n'aient pas été "inventés" par l'homme, mais "découverts". Dans une perspective platonicienne, c'est-à-dire si l'on pense que les êtres mathématiques existent réellement, en dehors de nos têtes, c'est un point de vue très cohérent.
* Deuxième axe : tu dis que la pensée humaine obéis peut-être à des règles "chaotiques" (au sens de la théorie du chaos), alors que l'ordinateur serait binaire. Ce n'est pas antinomique :
- D'une part, la base 2 et une série d'axiomes suffisent à exprimer toute l'arithmétique.
- D'autre part, les processus chaotiques, tels que le problème à trois corps, ou le double pendule, naissent justement dans des environnement parfaitement déterministes, donc strictement mathématisables. (si tu veux, je peux développer ce point, je me rend compte que balancé comme ça, soit c'est un argument d'autorité, soit tu sais déjà de quoi je parle et c'est alors inutile).
- Enfin, il existe plein de façon de rendre un programme "non-déterministe" (pas au sens strict, mais au sens ou tu l'entendais), de lui faire apprendre par lui-même, de corriger ses erreurs, de s'adapter, etc. Parmi ces techniques, il existe par exemple les algorithmes génétiques, les réseaux de neurones, diverses sortes d'algorithmes heuristiques, et des approches de plus haut niveau sur l'apprentissage de tels machines.
Pour te donner une idée, une façon très simple de rendre un programme non-déterministe est de lui dire "fais quelque chose au hasard" (sachant que pour tirer quelque chose le hasard, il va se baser sur tout un tas de paramètres contingents). Tu peux ensuite affiner, si tu as un objectif pour ton programme, en lui disant : essaye dix mille actions au hasard, note leur réussite par rapport à l'objectif, garde les cent meilleures actions, puis combine-les, de dix mille façons différentes. Garde les cent combinaisons qui ont le mieux réussi, et on passe à trois combinaisons (la difficulté et l'habileté du programmeur sera dans le codage de la partie qui évaluera la réussite de l'action par rapport à l'objectif).
Voilà, c'est très idéalisé, mais ça peut donner une idée de comment faire un programme au comportement non-trivial, et adaptatif.
Mais il y a beaucoup de trous dans tout ça, et moi je ne montre pas en quoi l'activité du cerveau est effectivement réductible à un calcul arithmétique, ça c'est plus difficile...
dom a écrit:"Avant qu'on ait des certitudes sur les différences fondamentales entre le cerveau humain et une machine machinante"
je pense que tu oublies un fait, la machine cerveau a crée la machine machinante, des lors elle systematiquement programmée par le cerveau, cette conception ne releve pas ,du moins dans ma vision imparfaite des choses, d'une theorie du chaos bien que la programation initiale du cerveau soit peut etre issue de celle du chaos, le cas qui nous interresse est une simple fonction binaire.
Bon, plusieurs axes de réponse à mon avis. Pour fixer les choses, on va considérer que machine = ordinateur classique, c'est-à-dire "machine de turing", qui peut se résumer idéalement à ça : une machine dotée d'un ruban de longueur infinie, sur lequel elle est capable de lire ou d'écrire des nombres, et de déplacer sa tête de lecture/écriture en fonction de règles sur les nombres qu'elle lit. Comme toute l'arithmétique peut se résumer à un jeu d'écriture, cette machine idéale sait, en gros, faire des calculs arithmétiques indéfiniment grands.
Le but de la discussion est de prouver ou non - ou prouver l'inverse - que le travail effectué par le cerveau humain (si l'on accepte que c'est bien le cerveau qui est le support de la pensée) a quelque chose de fondamentalement infaisable via un traitement arithmétique.
* L'un de tes arguments à cela est que l'homme a créé la machine à faire de l'arithmétique, ce qui sous-entend(c'est ce que j'en comprend), qu'elle lui est subordonnée, elle ne peut faire que moins bien que lui.
-> Là, je te répondrais que l'élève peut dépasser le maître sans problème, ou la créature son créateur, sur le plan intellectuel. Issus d'une cellule procaryote, comme tout le vivant, la lignée humaine n'en est pas moins supérieure intellectuellement (je ne suis pas sûr de la validité de l'argument, mais j'arrive pas non plus à l'écarter). Sur un plan plus proche de la discussion, on peut facilement créer des choses qui nous dépassent : j'ai déjà été battu aux échecs par un programme fait par moi. Egalement, le fait que nous créions un objet ne veut pas dire qu'on en maîtrise toute la portée, ni toute les conséquences : l'homme est le créateur des axiomes de l'arithmétique. Pourtant, des problèmes existent, dans le langage de l'arithmétique, qui mettent plusieurs siècles à être résolus, voire qui sont purement insolubles (indépendants des axiomes).
Enfin, il se pourrait également que les principes qui gouvernent le fonctionnement de l'ordinateur n'aient pas été "inventés" par l'homme, mais "découverts". Dans une perspective platonicienne, c'est-à-dire si l'on pense que les êtres mathématiques existent réellement, en dehors de nos têtes, c'est un point de vue très cohérent.
* Deuxième axe : tu dis que la pensée humaine obéis peut-être à des règles "chaotiques" (au sens de la théorie du chaos), alors que l'ordinateur serait binaire. Ce n'est pas antinomique :
- D'une part, la base 2 et une série d'axiomes suffisent à exprimer toute l'arithmétique.
- D'autre part, les processus chaotiques, tels que le problème à trois corps, ou le double pendule, naissent justement dans des environnement parfaitement déterministes, donc strictement mathématisables. (si tu veux, je peux développer ce point, je me rend compte que balancé comme ça, soit c'est un argument d'autorité, soit tu sais déjà de quoi je parle et c'est alors inutile).
- Enfin, il existe plein de façon de rendre un programme "non-déterministe" (pas au sens strict, mais au sens ou tu l'entendais), de lui faire apprendre par lui-même, de corriger ses erreurs, de s'adapter, etc. Parmi ces techniques, il existe par exemple les algorithmes génétiques, les réseaux de neurones, diverses sortes d'algorithmes heuristiques, et des approches de plus haut niveau sur l'apprentissage de tels machines.
Pour te donner une idée, une façon très simple de rendre un programme non-déterministe est de lui dire "fais quelque chose au hasard" (sachant que pour tirer quelque chose le hasard, il va se baser sur tout un tas de paramètres contingents). Tu peux ensuite affiner, si tu as un objectif pour ton programme, en lui disant : essaye dix mille actions au hasard, note leur réussite par rapport à l'objectif, garde les cent meilleures actions, puis combine-les, de dix mille façons différentes. Garde les cent combinaisons qui ont le mieux réussi, et on passe à trois combinaisons (la difficulté et l'habileté du programmeur sera dans le codage de la partie qui évaluera la réussite de l'action par rapport à l'objectif).
Voilà, c'est très idéalisé, mais ça peut donner une idée de comment faire un programme au comportement non-trivial, et adaptatif.
Mais il y a beaucoup de trous dans tout ça, et moi je ne montre pas en quoi l'activité du cerveau est effectivement réductible à un calcul arithmétique, ça c'est plus difficile...