Aller au contenu

Messages recommandés

Un économiste du GMU, physicien de formation. Bryan Caplan en dit "Quand un économiste typique me parle de ses dernières recherches, ma réaction usuelle est « Ok, peut-être », puis je l'oublie. Quand Robin Hanson me parle de ses dernières recherches, ma réaction usuelle est « C'est impossible ! », puis j'y pense pendant des années"

 

Il est en autre connu pour son travail sur les marchés de prédictions et le concept futarchie qui en découle.

 

Son blog :  Overcoming Bias

 

The Age of Em: Work, Love and Life when Robots Rule the Earth (2016)

http://ageofem.com/

Quote

 

Many think the first truly smart robots will be brain emulations or ems. Scan a human brain, then run a model with the same connections on a fast computer, and you have a robot brain, but recognizably human.

Some say we can't know the future, especially following such a disruptive new technology, but Professor Robin Hanson sets out to prove them wrong. Applying decades of expertise in physics, computer science, and economics, he uses standard theories to paint a detailed picture of a world dominated by ems.

 

 

The Elephant in the Brain: Hidden Motives in Everyday Life (avec Kevin Simler)

http://elephantinthebrain.com/

Quote

Human beings are primates, and primates are political animals. Our brains are therefore designed not just to hunt and gather, but also to get ahead socially, often by devious means.

But while we may be self-interested schemers, we benefit by pretending otherwise. The less we know about our own ugly motives, the better. And thus we don’t like to talk — or even think — about the extent of our selfishness. This is “the elephant in the brain,” an introspective blind spot that makes it hard to think clearly about ourselves and the explanations for our behavior.

The aim of this book is to confront our hidden motives directly — to track down the darker, unexamined corners of our psyches and blast them with floodlights. Then, once our minds are more clearly visible, we can work to better understand human nature: Why do people laugh? Why are artists sexy? Why do we brag about travel? Why do we prefer to speak rather than listen?

Beyond our personal lives, unconscious motives also lurk within large-scale social institutions such as art, charity, education, politics, and religion. In fact, these venerated institutions are in many ways designed to accommodate our hidden motives, to serve covert agendas alongside their “official” ones. The existence of big hidden motives can upend the usual political debates and cast fatal doubt on many polite fictions. You won’t see yourself — or the world — the same after confronting the elephant in the brain.

 

 

 

  • Yea 2
Lien vers le commentaire

Beaucoup de choses intéressantes mais là il va vraiment falloir poser des questions bien définies sinon on va partir en tous sens. On peut commencer par identifier une thèse dans la première vidéo et la discuter. L'avantage est que Hanson lui même les identifie bien.

 

Pour moi la première difficulté est la prédiction que les I.A. dont le comportement va définir la prochaine "ère" de l'évolution culturelle seront des I.A. anthropomorphiques et même des simulations du cerveau humain.

 

Evidemment c'est une hypothèse intéressante si on veut prédire le comportement de l'I.A. mais mon impression est que les projets de simulations du cerveau humain sont plutôt sur le déclin, parce que leurs objectifs sont mal définis, et parce que notre connaissance du cerveau est insuffisante. Le paradigme d'I.A. dans lequel on se trouve actuellement me semble orienté vers la réalisation de tâches bien définies plutôt que vers la simulation. La question de savoir si des comportement interprétables comme la réalisation de tâches non définies préalablement peuvent se produire au cours de la réalisation de la tâche principale, et comment on s'en rendra compte, se pose, bien sûr, cf. ce que @F. mas nous disait du bouquin Life 3.0. Mais même hors cette question, il me semble difficile de dire vers quoi cette "ère culturelle" là (celle des I.A. qui automatisent des tâches bien définies) se dirige déjà. Est-ce que ces I.A. peuvent définir à elles même une "ère" différente de ce qu'on connaît, cela dépend de ce qu'il appelle une "ère", donc on va rester vague sur ça.

 

Tout ça pour dire que je trouve cette hypothèse trop forte.

 

Maintenant, cela ne veut pas dire que certains aspects de sa prédiction (les copies d'une contrepartie fonctionnelle de "soi" assez fidèle pour travailler ou prendre des décisions en parallèle), dans le cas où elles ne nécessiteraient pas l'hypothèse forte de simulation du cerveau, ne peuvent pas être quand même envisagées.

Lien vers le commentaire
4 minutes ago, Anton_K said:

Pour moi la première difficulté est la prédiction que les I.A. dont le comportement va définir la prochaine "ère" de l'évolution culturelle seront des I.A. anthropomorphiques et même des simulations du cerveau humain.

 

Je ne suis pas sûr qu'il voit ça comme une prédiction. On est peut-être plus sur une expérience de pensé qui cherche à ne pas être trop déconnectée du réalisable.

  • Yea 1
Lien vers le commentaire
1 minute ago, Sekonda said:

Je ne suis pas sûr qu'il voit ça comme une prédiction. On est peut-être plus sur une expérience de pensé qui cherche à ne pas être trop déconnectée du réalisable.

 

Dans ce cas d'accord. L'expérience de pensée étant : que se passerait-il si les workaholics étaient numérisables, étant donné ce qu'on peut faire avec un fichier numérique.

Lien vers le commentaire

Créer un compte ou se connecter pour commenter

Vous devez être membre afin de pouvoir déposer un commentaire

Créer un compte

Créez un compte sur notre communauté. C’est facile !

Créer un nouveau compte

Se connecter

Vous avez déjà un compte ? Connectez-vous ici.

Connectez-vous maintenant
×
×
  • Créer...