Detroit Become Human (2/9)
Live du 06.06.2018 sur Detroit Become Human
Live du 06.06.2018 sur Detroit Become Human
Live du 07.06.2018 sur Detroit Become Human
Live du 07.06.2018 sur Detroit Become Human
Live du 07.06.2018 sur Detroit Become Human
Live du 07.06.2018 sur Detroit Become Human
Voila donc mon premier live diffusé le 11 septembre 2014 sur Assassin's Creed IV Black Flag !
J'ai adoré l'expérience, l'interaction avec vous malgré le bordel du Tchat, un peu anxieux au départ forcément mais au bout de quelques minutes j'étais déjà plus à l'aise :)
Qualité visuelle/sonore médiocre mais on fera avec :p
65 Commentaires
Au vu de tous les commentaires sur l' "IA", le "deep learning" et la conscience, on voit qu'un problème majeur dans tout ça est la façon systématique de présenter ça de façon anthropomorphique, ce qui biaise/invalide tous les raisonnements qui s'ensuivent...
Alors, oui, le deep learning est un sujet passionnant, sur lequel sont actuellement réalisées les plus grosses avancées en termes d'IA, mais non, on est encore très loin de tout ce qu'on essaye de vendre au grand public (et aux investisseurs), et surtout, non, ce n'est pas LA "silver bullet" qui va résoudre tous les problèmes, loin s'en faut (ça s'applique très bien à certains problèmes, beaucoup moins bien à d'autres)...
On ne dit pas qu'on est proche, on se demande juste si c'est théoriquement possible, si c'est choquant de voir ça dans un jeu qui raconte une histoire futuriste.
Je ne crois pas que quelqu'un ait prétendu que ça allait résoudre tous les problèmes...
15:33 Hooper, fais nous une soirée sur le Paranormal xD
Sous les pavés, la plage de pavés...
J'avais beaucoup apprécié Heavy rain et là on est exactement dans le même style de scénario mais avec des androïdes donc forcément je ne peux qu'aimer!
Par contre je comprends pas t'es obligé de tout scanner avant pour pouvoir ensuite interagir avec les éléments que le scanner a révélé ou non? Parce-que si c'est pas le cas je trouve que tu te gâches un peu l'expérience là
19:40 Le fait que les machines se rebellent et développent une conscience ne me parait pas absurde surtout si leur programme est suffisamment complexe pour gérer l'improvisation et qu'ils ont des ordres contradictoires (comme dans I Robot avec l' I.A. qui est conçue pour protéger l'humanité mais vu que l'humanité s'autodétruit, elle se dit je fais quoi?).
Par contre le petit soucis avec ce jeu, c'est qu'une fois devenus déviants, les robots sont un peu trop humains dans leur comportement. Il y a plus aucune différence. Ils se tiennent par les épaules en disant "Ça va t'es pas blessé?", ils s'assoient pour faire le point (alors qu'ils ressentent pas la fatigue), ils se disputent comme des humains etc...
Sinon, plus que Westworld, je trouve que la référence qui saute le plus aux yeux dans ce jeu, c'est la série suédoise Real Humans, qui étaient passée sur Arte il y a deux trois ans. C'était exactement pareil, il y avait d'un côté la vie domestique des "hubots" et de l'autre côté une histoire de révolution. La partie Connor fait quand elle évidemment penser à Blade Runner.
Ca se gère pas l'improvisation; justement c'est quelque chose de purement humain. L'improvisation c'est justement régler de manière logique selon les aléas du monde:
Exemple concret: dans mon boulot de topographie on utilise des scans 3D pour des façades complexes. Au loin je vois un orage qui va arriver dans quelques minutes et qui va m'obliger à interrompre le travail de scan. Le robot lui il s'en fout, il scanne peu importe qu'il soit face à une façade complexe ou un mur simple. Moi je vois comment est fait la façade et qu'on peut la simplifier -même fenêtres, mêmes portes, linteaux identiques partout- et au lieu d'avoir mit 15 minutes de mesure, on fait la façade en 5 minutes et on évite la pluie.
Et là tu vas me dire que c'est un cas exceptionnel mais dans le métier des cas pareil il y en a des tonnes: camion qui masque la vue, piétons qui font n'imp', la pluie et le vent ect. autant d'imprévu qu'un robot ne pourrait prévoir sur le fait; alors qu'un humain le pourrait.
Si. La machine peut improviser.
De nos jours, le fonctionnement d'une IA ressemble de plus en plus à celle d'un humain : Il y a un réseau de neurones artificiels, des nombres sont modifiés et échangés entre ces neurones (comme des signaux électriques entre les neurones humains), on ne comprend pas bien à quoi correspondent ces nombres (comme on ne sait pas exactement ce que font les signaux électriques humains), il faut éduquer ces neurones (comme il faut éduquer les humains), et les IA font des erreurs (comme les humains). Bref, on pourrait dire que les IA sont des humains artificiels.
Ainsi, on peut théoriquement imaginer qu'elles pourraient réagir comme des humains, improviser comme des humains, ...toutes les conneries que racontent les films de science-fiction redeviennent crédibles.
Sérieusement, il faut arrêter de vouloir parler du deep learning de façon anthropomorphique...
Et accessoirement, se renseigner vraiment sur le sujet avant d'en parler...
Tu manifestes beaucoup ton désaccord, mais tu n'expliques pas grand chose...
Si une machine réagit exactement comme un humain qui improvise, en quoi ne pouvons-nous pas dire qu'elle improvise elle-aussi ?
Le développement de la "conscience" dans les machines est surtout un fantasme humain. Personne ne pourrait y croire une seconde s'il n'y avait pas eu tant de films de science fiction dessus.
Il en va aussi du fantasme humain de croire qu'on a quelque chose de spécial et d'unique.
Et c'est un chouille réducteur d'imaginer que le seul argument en faveur de la conscience-machine c'est l'imaginaire SF. Tu peux trouver énormément de scientifiques et philosophes qui sur cette question penchent pour la thèse matérialiste/fonctionnaliste, qui définie grosso modo les états mentaux de notre "conscience" comme une succession de causes et d'effets très complexes, et adaptables à d'autres supports comme l'informatique.
Et je te prie de croire qu'ils ont d'autres références que blade runner. ^^
Après perso je n'ai rien contre le scepticisme. Mais personne sur ces questions ne peut se permettre d'être catégorique.
Je m'excuse pour ce hors sujet mais il se trouve que ton avatar entre en corrélation avec ma vie ^^ : j'ai vu Lilo et Stitch l'autre jour et je m'attendais pas à ce que ce soit aussi sympa. J'ai bien rigolé et il est pas con ce Disney :D .
Pour le reste, je pense aussi que même si, pour le moment, l'intelligence artificielle avec de grands A et I me semble encore du domaine de la SF, je crois que l'émergence d'une "vraie" conscience au sein d'un machine, d'un programme, un jour, ne peut être exclue du champ des possibles.
En même temps il est très difficile d'imaginer comment les robots réagiront dans le futur.
Excusez-moi, mais quand Hooper dit : "Je ne crois pas qu'on soit le fruit du hasard, d'une suite de coincidence" (c'est le discours de Guy Pearce au début d'Alien Covenant d'ailleurs loul), c'est le discours que tiendrait une personne qui défend la théorie créationniste, non ?
Et la théorie de l'évolution mon cher Hooper ? C'est du pipeau ?^^
Une main puissante et invisible qui nous crée de toute pièces me paraît tout à fait fantasmagorique personnellement.
Mais peut-être suis-je trop cartésien, allez savoir. =p
Manquerait plus qu'Hooper verse dans une profonde religiosité, je me bannirai moi-même ^^.
La conscience des machines
19:40 = Hooper ne pense pas que les machines développeront une conscience.
Hooper fait un blocage car il croit qu'un programmeur est obligé de coder précisément tout ce que la machine va faire, et donc, qu'elle ne pourra jamais être autonome, puisqu'elle peut uniquement suivre ce qui a été écrit dans son programme. Or, comme certains l'ont cité dans le chat et dans les commentaires, avec le Deep Learning, le programmeur n'a plus besoin d'être aussi précis; il écrit juste le code qui sert à évaluer la solution d'un problème, et l'IA se démerde pour la trouver. C'est magique ! Le programmeur ne sait même plus précisément ce que fait la machine, il ne sait même plus à quoi correspondent les valeurs stockées en mémoire !
Ainsi, comme on ne sait pas coder une conscience, pourrait juste laisser l'IA trouver la solution, et nous, on se contente de coder la partie qui dit "oui, ta solution me convient" ou "non, ta solution est nulle, recommence."
De plus en plus feignant ces programmeurs !
Autrefois, on appelait ça l'Intelligence Artificielle, mais à force d'associer n'importe quoi à ce terme, ils ont choisi d'en changer le nom.
Une histoire sans androïde
36:00 = L'androïde Connor ne comprend pas la vanne de Hank.
J'aime cette blague parce qu'elle colle à la trame : Une histoire d'androïde. Ce n'est pas la blague passe-partout du poulet qui traverse la rue qu'on pourrait caser dans n'importe quelle histoire...
Pourtant, l'une des choses que je reproche à cette histoire, c'est que les androïdes se comportent trop souvent comme des humains, ils ont trop souvent des problématiques d'humain; on perd donc souvent la spécificité de cette histoire, sa saveur. J'ai souvent eu l'impression que cette histoire oppose des humains entre eux, comme dans beaucoup de séries quelconques...
L'androïde contre-attaque
51:10 = L'androïde se rebelle, Hooper n'est pas d'accord.
Avec le Deep Learning, comme on ne sait même plus quel est l'algorithme qu'applique la machine, elle peut nous surprendre. Si on l'a éduquée pour éviter les dégâts, elle pourrait théoriquement décider que la meilleure option, c'est de se protéger et nous buter.
Les connards
1:08:30 = Un connard en moins.
Todd est un connard, c'était prévisible qu'on s'en débarrasse. Pourtant, dans certaines histoires, on se traîne des connards tout au long de l'aventure, et ça donne parfois lieu à des scènes amusantes, intéressantes, surprenantes... Ça me manque, j'aimerais bien revoir ça un jour...
Cela dit, peut-être qu'ils ne veulent pas encourager les gens à tolérer les connards, c'est vrai qu'ils sont souvent dangereux... Dommage, on aura donc toujours des héros irréprochables, c'est chiant...
Au sujet de l'IA et du deep learning, il serait quand-même bon de préciser que les réseaux de neurone n'ont aucune conscience de ce sur quoi ils travaillent, la machine non plus ne sait absolument pas à quoi correspondent les valeurs en mémoire. Elle arrive (peut-être) au résultat attendu à force d'approximations, mais c'est tout.
Bref, l'IA actuellement, c'est beaucoup de marketing bullshit pour parler aux profanes, et surtout, surtout, énormément de puissance de calcul.
Je ne vois pas la différence avec les humains : Eux non-plus ne savent pas ce que font les neurones dans leur tête.
De toute façon, ce n'est pas la question. La question, c'était de répondre à Hooper lorsqu'il parle d'un "nouveau type de programmation extraterrestre". Le Deep Learning ou le réseau de neurones sont de bonnes réponses. On ne laisse pas notre ami Hooper croire qu'un programmeur doit toujours tout expliciter dans un programme.
En effet, dans le deep learning l'IA n'a aucune interprétation du résultat, pour lui il s'agit juste de résoudre un problème mathématique qui est "qu'est-ce que je dois mettre en nombres en paramètre pour maximiser ma note" (la note étant notamment réglée par l'informaticien derrière qui a donné une base d'entrainement à l'IA, par exemple il lui montre des images de chiffres et si l'informaticien lui montre un 1 et que l'IA répond 3, l'IA va essayer de se corriger pour se rapprocher de la solution que l'humain lui donne...