次年,在香港的一次新闻发布会上,霍金宣称:
"life on Earth is at the ever-increasing risk of being wiped out by a disaster, such as sudden global nuclear war, a genetically engineered virus or other dangers we have not yet thought of."
“地球上的生命遭遇毁灭性灾难的风险正在不断增加,比如突如其来的全球性核战争、基因工程病毒或者是其它我们还未想象到的危险。”
而霍金最大的担忧要数人工智能的发展,AI被他认为可能是“人类历史上最严重的错误”。2014年,霍金和几名物理学家共同对人工智能做了探讨,他们认为人工智能的潜力无限,但是我们也无法预测人工智能地不断发展会出现什么后果。正如他们写道:
"One can imagine such technology outsmarting financial markets, out-inventing human researchers, out-manipulating human leaders, and developing weapons we cannot even understand. Whereas the short-term impact of AI depends on who controls it, the long-term impact depends on whether it can be controlled at all."
“可以想象这样的技术会比金融市场还更胜一筹,创造出人类研究人员,操纵人类领袖,开发出我们无法理解的武器。人工智能的短期影响取决于谁控制了它,而长期影响则取决于它到底能不能被控制。”