Para peneliti memperkirakan adanya kemungkinan 10% bahwa manusia akan gagal mengendalikan AI dan hal ini berujung pada kepunahan manusia.
Di antara para peneliti ada kesepakatan untuk fokus pada meminimalisir risiko dalam pengembangan AI.
Akan tetapi suara para peneliti terbelah antara yang ingin mempercepat atau sedikit menahan pengembangan AI.
Adapun lebih dari 80% peneliti AI mengatakan bahwa hal yang paling substantial mengenai AI adalah kemampuan menyebar informasi keliru.
Sementara itu pada Desember, OpenAI merilis makalah pertamanya tentang menyelaraskan AI super dengan nilai-nilai kemanusiaan.
Anthropic memiliki konstitusi yang mengatur sistem AI untuk memastikan mereka bertindak sejalan dengan aturan masyarakat.
Akan tetapi metode tersebut belum tentu dapat diterapkan pada model AI yang lebih pintar dari manusia.
Pasalnya AI yang ada saat ini masih belum begitu pintar. (*)