Il y a un nouvel article de Nick Bostrom avec ce titre :

Développer la superintelligence n’est pas comme jouer à la roulette russe ; Il s’agit plutôt d’une opération risquée pour une maladie qui autrement serait mortelle. Nous examinons le timing optimal du point de vue de l’influence des personnes (en laissant de côté les hypothèses de simulation et autres considérations obscures). Les modèles qui tiennent compte des avancées en matière de sécurité, de l’actualisation temporelle, des différences de qualité de vie et des utilités QALY concaves suggèrent que même les probabilités catastrophiques élevées valent souvent la peine d’être acceptées. La pondération prioritaire raccourcit encore les délais. Pour de nombreux paramètres, la stratégie optimale serait de passer rapidement à la capacité AGI, puis de faire une brève pause avant le déploiement complet : rapide au port, lent à l'accostage. Mais des pauses mal mises en œuvre peuvent faire plus de mal que de bien.

À propos de Nabeel.

L'article « Moment optimal pour la superintelligence » est apparu en premier sur Marginal REVOLUTION.

#Moment #optimal #pour #superintelligence