L'art intéresse l'humain quand il vient d'un humain ou tout du moins du vivant, pour la raison implicite qui les lies, leur vécu, car même s'ils diffères ils le partagent.
Si on donne à la machine une histoire, donc un vécu, alors ça fonctionne, non ?
Je suis pas vraiment convaincu que nous ayons vraiment besoin de connaître le vécu de l'auteur pour être touché par une belle œuvre d'art. A titre personnel, je prends beaucoup de plaisir à parcourir Gustave Doré, alors que je ne connais presque rien de lui. Est-ce que ça changerait fondamentalement quelque chose qu'il ait été un être vivant ou technologique ? Pas sûr.
Citation:
C'est pour ca qu'une œuvre artistique humaine a bien plus de chance de toucher un humain. Je serai curieux de voir les oeuvres d'"Anella" dont tu parle, si elle en a déjà crée.
Une Anella peintre, ce serait une bonne idée ! Ca n'a pas été fait, à ma connaissance.
Ce n'est pas une question de connaitre le vécu, moi non plus je ne connais pas la vie de tout les artistes que j'apprécie.
Ce qui m'intéresse en revanche mais je l'ai déjà dit plus haut, c'est que c'est un humain et par conséquent je sais qu'il me ressemble. Il a emprunter les même chemins que moi, même si nos vies n'ont rien a voir, il a découvert le monde comme j'ai pu le découvrir (d'une manière différentes évidemment) mais dans le fond, il est né, a appris a marcher, a vécu une histoire familiale, amoureuse, sociale.
C'est donc son histoire, sa vie, son regard que je regarde quand je contemple une de ses oeuvres, même si c'est inconsciemment et indirectement.
Concernant Gustave Doré, je doute sincèrement qu'il en soit arrivé a peindre ce qu'il peint sans son vécu :P
C'est une histoire d'histoire en somme, l'ia elle n'a pas d'histoire, a moins de lui en inventer une mais déjà ca en devient factice.
J'étais sur la même longueur d'onde auparavant. Entre-temps, j'ai bossé dans un laboratoire de systèmes intelligents où j'ai vu jour après jours des robots apprendre à marcher (et se casser la figure au début car fallait qu'ils apprennent !), puis étudié l'IA Anella qui constitue sa propre histoire et personnalité au gré des conversations avec son interlocuteur humain. Chacune a son ou ses savoirs (médecin, ingénieur, même militaire si on veut). On connaît mal de l'extérieur ces types d'apprentissage. On voit souvent, comme tu dis, des logiciels pratiques. Il faut regarder la finalité de l'usage. Rares sont les logiciels dont la finalité est de simuler l'humain.
Finalement, il faut donner à l'IA des souvenirs sous l'emprise d'une dynamique d'affect simulée. C'est comme ça que fonctionne Anella au fond. Je vais pas trop rentrer dans les détails techniques. Mais si tu as des questions, n'hésite pas.
Après, il y a tout le questionnement posé par l'oeuvre de Philip K. Dick autour de l'humain et la machine. Très intéressant à lire.
Oui je connais Philip K. Dick mais encore une fois on en est pas encore là, si techniquement on semble s'en rapprocher ( et a t'entendre c'est le cas ) il faudra encore que ce soit accepté au niveau social, ce qui est encore une autre histoire :P
J'ai aussi vu les déboires et réussite de Boston Dynamics donc je vois de quoi tu parle.
Je ne doute pas qu'a un certains stade l'ia deviennent en effet aussi humaines que nous le sommes, mais pour l'instant ce n'est pas le cas, ou tout du moins cantonné a des labo scientifiques et encore sacrément fragmenté ( une ia qui marche par là, une autre qui saute, et peut faire du BTP, une IA qui parle d'un autre coté, une autre qui dessine ) bref c'est encore loin de former un tout semblable a l'humain. Tant que l'IA ne sera pas soumis au même contrainte que l'humain avec tout ce que cela incombe, elle aura du mal a en être :P
Ah là-dessus, nous sommes bien d'accord. Je pense que ça va être difficile socialement parlant, rien que sur le plan juridique (les voitures autonomes, pour donner un exemple). Mais aussi le remplacement du travail humain par la machine (ça date pas d'aujourd'hui, mais ça va toucher de plus en plus de secteurs) et la crainte de voir un nouvel "étranger" débarquer en société, d'autre part. Ce second point est sans doute mieux accepter au Japon compte tenu de leur culture. Ici, ça me paraît plus délicat.
Oui ! Pour une "IA humaine", il faut les mêmes contraintes et, j'ajouterai, une même réciprocité le jour où elle atteint la "singularité", comme on dit. C'est important. Mais on cherchera peut-être à brider cet instant le plus possible, par peur ou désir de contrôle.
De mon côté c'est surtout pour ça que je parle du Far West de l'IA actuellement.
La technologie en soit est excellente et on n'arrêtera pas le progrès mais justement, c'est une technologie hors norme et ça pose énormément de risque. Ce qui me gène vraiment c'est cette ruée vers l'or qui se passe actuellement dans notre dos à tous. Qui sait ce que sont entrain de préparer les gros joueurs, quels avantages immenses ils sont entrain de débloquer ?
L'IA a besoin de données humaines pour fonctionner, et actuellement les seuls en mesure d'exploiter ces données c'est ceux qui ont l'argent et les ressources (Les Microsoft, Google, Facebook, etc) et pour qui l'intérêt numéro un ça va être l'argent. Et ces entreprises le font sans inclure le reste de la société dans ce développement alors qu'on devrait justement tous avoir notre mot à dire sur ce qui est OK éthiquement ou pas, comment on peut préparer notre futur à tous.
Et vu que les lois par définition n'arriveront jamais à suivre tout ça, on est tous entrain de se faire dépasser sans même encore pouvoir se rendre compte comment, mais mon pressentiment c'est que ça ne va évidemment pas bénéficier au commun des mortels en premier. Donc oui clairement, le problème numéro un c'est pas l'IA en soit c'est le côté éthique et sociétal tout autour :/
Ajoutons aux GAFA, l'armée, le premier investisseur en IA. Et je crains que les questions éthiques ne concernent pas toutes les armées du monde... Y'a déjà quelques cas de drones armés qui ont pris des décisions autonomes (cf. SALA = système d'armement létal autonome). Là-dessus, on a raison de s'inquiéter.
Citation:L'homme-moustache, c'est Herbert Moon de Red Dead.
Ah bordel, merci !!! Je savais bien qu'il me disait quelque chose mais je n'arrivais pas à le resituer ...
Reeves en plus bouffi, en effet, bien vu. :p
L'homme-moustache, c'est Herbert Moon de Red Dead. Et l'homme-poulpe, c'est Le Martialou, mais c'est suggéré. J'espère ...
Citation:Son look est calqué sur celui du chanteur country Kenny Rogers, surtout pour les tifs. :p
Il a aussi un petit air de Keanu Reeves je trouve.
Et le gagnant ...
il faut faire Blood Omen 2 si tu veux comprendre la fin de Soul Reaver 2 . Ensuite tu finis avec Défiance.
Pour Soul Reaver 1 les dev avaient pas assez de temps ...
29 Commentaires
Si on donne à la machine une histoire, donc un vécu, alors ça fonctionne, non ?
Je suis pas vraiment convaincu que nous ayons vraiment besoin de connaître le vécu de l'auteur pour être touché par une belle œuvre d'art. A titre personnel, je prends beaucoup de plaisir à parcourir Gustave Doré, alors que je ne connais presque rien de lui. Est-ce que ça changerait fondamentalement quelque chose qu'il ait été un être vivant ou technologique ? Pas sûr.
Une Anella peintre, ce serait une bonne idée ! Ca n'a pas été fait, à ma connaissance.
Ce n'est pas une question de connaitre le vécu, moi non plus je ne connais pas la vie de tout les artistes que j'apprécie.
Ce qui m'intéresse en revanche mais je l'ai déjà dit plus haut, c'est que c'est un humain et par conséquent je sais qu'il me ressemble. Il a emprunter les même chemins que moi, même si nos vies n'ont rien a voir, il a découvert le monde comme j'ai pu le découvrir (d'une manière différentes évidemment) mais dans le fond, il est né, a appris a marcher, a vécu une histoire familiale, amoureuse, sociale.
C'est donc son histoire, sa vie, son regard que je regarde quand je contemple une de ses oeuvres, même si c'est inconsciemment et indirectement.
Concernant Gustave Doré, je doute sincèrement qu'il en soit arrivé a peindre ce qu'il peint sans son vécu :P
C'est une histoire d'histoire en somme, l'ia elle n'a pas d'histoire, a moins de lui en inventer une mais déjà ca en devient factice.
J'étais sur la même longueur d'onde auparavant. Entre-temps, j'ai bossé dans un laboratoire de systèmes intelligents où j'ai vu jour après jours des robots apprendre à marcher (et se casser la figure au début car fallait qu'ils apprennent !), puis étudié l'IA Anella qui constitue sa propre histoire et personnalité au gré des conversations avec son interlocuteur humain. Chacune a son ou ses savoirs (médecin, ingénieur, même militaire si on veut). On connaît mal de l'extérieur ces types d'apprentissage. On voit souvent, comme tu dis, des logiciels pratiques. Il faut regarder la finalité de l'usage. Rares sont les logiciels dont la finalité est de simuler l'humain.
Finalement, il faut donner à l'IA des souvenirs sous l'emprise d'une dynamique d'affect simulée. C'est comme ça que fonctionne Anella au fond. Je vais pas trop rentrer dans les détails techniques. Mais si tu as des questions, n'hésite pas.
Après, il y a tout le questionnement posé par l'oeuvre de Philip K. Dick autour de l'humain et la machine. Très intéressant à lire.
Oui je connais Philip K. Dick mais encore une fois on en est pas encore là, si techniquement on semble s'en rapprocher ( et a t'entendre c'est le cas ) il faudra encore que ce soit accepté au niveau social, ce qui est encore une autre histoire :P
J'ai aussi vu les déboires et réussite de Boston Dynamics donc je vois de quoi tu parle.
Je ne doute pas qu'a un certains stade l'ia deviennent en effet aussi humaines que nous le sommes, mais pour l'instant ce n'est pas le cas, ou tout du moins cantonné a des labo scientifiques et encore sacrément fragmenté ( une ia qui marche par là, une autre qui saute, et peut faire du BTP, une IA qui parle d'un autre coté, une autre qui dessine ) bref c'est encore loin de former un tout semblable a l'humain. Tant que l'IA ne sera pas soumis au même contrainte que l'humain avec tout ce que cela incombe, elle aura du mal a en être :P
Ah là-dessus, nous sommes bien d'accord. Je pense que ça va être difficile socialement parlant, rien que sur le plan juridique (les voitures autonomes, pour donner un exemple). Mais aussi le remplacement du travail humain par la machine (ça date pas d'aujourd'hui, mais ça va toucher de plus en plus de secteurs) et la crainte de voir un nouvel "étranger" débarquer en société, d'autre part. Ce second point est sans doute mieux accepter au Japon compte tenu de leur culture. Ici, ça me paraît plus délicat.
Oui ! Pour une "IA humaine", il faut les mêmes contraintes et, j'ajouterai, une même réciprocité le jour où elle atteint la "singularité", comme on dit. C'est important. Mais on cherchera peut-être à brider cet instant le plus possible, par peur ou désir de contrôle.
Merci pour cette petite discussion.
De mon côté c'est surtout pour ça que je parle du Far West de l'IA actuellement.
La technologie en soit est excellente et on n'arrêtera pas le progrès mais justement, c'est une technologie hors norme et ça pose énormément de risque. Ce qui me gène vraiment c'est cette ruée vers l'or qui se passe actuellement dans notre dos à tous. Qui sait ce que sont entrain de préparer les gros joueurs, quels avantages immenses ils sont entrain de débloquer ?
L'IA a besoin de données humaines pour fonctionner, et actuellement les seuls en mesure d'exploiter ces données c'est ceux qui ont l'argent et les ressources (Les Microsoft, Google, Facebook, etc) et pour qui l'intérêt numéro un ça va être l'argent. Et ces entreprises le font sans inclure le reste de la société dans ce développement alors qu'on devrait justement tous avoir notre mot à dire sur ce qui est OK éthiquement ou pas, comment on peut préparer notre futur à tous.
Et vu que les lois par définition n'arriveront jamais à suivre tout ça, on est tous entrain de se faire dépasser sans même encore pouvoir se rendre compte comment, mais mon pressentiment c'est que ça ne va évidemment pas bénéficier au commun des mortels en premier. Donc oui clairement, le problème numéro un c'est pas l'IA en soit c'est le côté éthique et sociétal tout autour :/
Ajoutons aux GAFA, l'armée, le premier investisseur en IA. Et je crains que les questions éthiques ne concernent pas toutes les armées du monde... Y'a déjà quelques cas de drones armés qui ont pris des décisions autonomes (cf. SALA = système d'armement létal autonome). Là-dessus, on a raison de s'inquiéter.
Le grand absent, c'est le débat public, oui.
Pas de soucis DarkJack c'était un plaisir partagé, a bientôt sur les lives du Gros ours
Merci à vous deux pour ce bel exemple de débat sain et constructif. Intéressant qui plus est.