効果的なAIを作ることに成功すれば、我々の文明史上最大の出来事となるかもしれない。あるいは最悪の事態になるかもしれない。ただ、私たちにはわからない。だから、私たちがAIによって無限に助けられるのか、それともAIに無視されて傍若無人になるのか、あるいは考えうる限りAIによって滅亡するのか、私たちにはわからない。

スティーブン・ホーキングは、人工知能の発展が人類にとって有益である可能性がある一方で、その進展が人類にとって脅威になる可能性もあると警告した。彼は、AIが人間を置き去りにしたり、破壊したりする可能性があることを指摘し、AIを開発する際には、その利用法について慎重に考慮し、エスカレートするリスクに対処するために適切な制御を設ける必要があることを示唆している。