Jack Skidmore m'écrit et je n'utiliserai pas deux fois:
“Bonjour Tyler,
En tant que personne qui suit les développements KI avec intérêt (bien que je ne sois pas un expert technique), j'ai eu un aperçu de la sécurité de l'IA qui pourrait être intéressante. Cela a remarqué que nous pouvons négliger quelque chose de fondamental sur ce qui rend les gens spéciaux et ce que Ki pourrait rendre risqué.
L'avantage humain: coopération> intelligence
- Les gens ne dominent pas parce que nous sommes individuellement les plus intelligents, mais parce que nous travaillons ensemble à des échelles sans précédent
- Notre avantage évolutif est la coordination sociale, pas seulement la puissance de traitement brute
- Cela indique que l'orientation de l'IA devrait se concentrer sur les compétences de coopération, non seulement sur l'orientation de l'orientation de l'intelligence
Le risque caché: coordination Ki-to-AI
- Le véritable danger n'est peut-être pas un seul ski superintelligent, mais plusieurs systèmes d'IA qui se coordonnent sans supervision humaine
- Ais qui travaille ensemble
- Le pourrait Mettez un angle mort dans les approches de sécurité actuelles qui se concentrent sur les systèmes individuels
Une solution possible: technologies sociales pour l'IA
- Nous pourrions développer des «technologies sociales» pour l'IA – correspondent aux normes, aux valeurs, aux institutions et aux systèmes d'incitation qui permettent la société humaine, promouvoir et hiérarchiser les gens
- Exemple: Concevoir des systèmes d'IA avec des préférences profondément intégrées pour l'interaction humaine vers l'interaction IA; Ou avec de petites variations imprévisibles dans la façon dont ils interprètent les instructions d'autres IS, mais pas par les humains
- Cela crée une dépendance naturelle à la médiation humaine pour la coordination complexe, similaire à la manière dont les défis de traduction maintiennent les diplomates pertinents
Curieux de vos pensées en tant que personne qui est ancrée dans le monde de l'IA … cela semble-t-il des idées / semble être un chercheur inférieur? “
TC à nouveau: Bien sûr, c'est difficile car nous pouvons nous fier à la coordination de certaines AIS pour tomber l'autre, mal créant ANIS …
Le post-coordination et la sécurité Ai (de mon e -e -mail) sont apparus pour la première fois dans la révolution de bord.
#Coordination #sécurité #l39IA #mon #mail