Dr. Roman(受訪者)長年從事AI安全研究,認為目前AI能力快速上升,但我們對於控制或「對齊」超級智能(superintelligence)的能力是極其不足的。他主張:如果不改變現在的研發與競賽動機,短期內(到2027)可能會出現接近AGI的系統;2030年前後可能出現能勝任實體工作的類人機器人;到2045可能出現不可預測的奇點(singularity)。整體立場是強烈警示:追求超級智慧可能導致文明滅絕風險,且很多聲稱能「到時候再解決」安全問題的說法並不可信。
Dr. Roman的核心訊息是:超級智能的出現不是單純技術問題,而是存在生存風險的體系性問題。若確信無法以可靠方式長期控制超級智能,則當前的研發路徑與激勵機制本身就是對全人類的倫理實驗。他呼籲:改變激勵、提高透明與科學驗證要求、擴大社會監督,並以現實可行的方式(公民行動、問責、質疑聲明)阻遏、延緩或改向研究方向,爭取更多時間與機會以尋找真正可行的安全方案。