<acronym id="siyyr"><label id="siyyr"><menu id="siyyr"></menu></label></acronym>

        <p id="siyyr"></p>

      1. <table id="siyyr"><ruby id="siyyr"></ruby></table>
      2. <acronym id="siyyr"><label id="siyyr"></label></acronym>
        <acronym id="siyyr"><label id="siyyr"></label></acronym>

        <table id="siyyr"></table>

        ad9_210*60
        關鍵詞:
        中國臺灣網  >   新聞中心  >   國際

        霍金警告人工智能危險性 稱其若失控很難被阻止

        2016年06月29日 15:18:00  來源:中新網
        字號:    

          資料圖:著名天體物理學家霍金。記者 張子揚 攝

          中新網6月29日電 據外媒報道,著名天體物理學家史蒂芬·霍金認為,人工智能應該在符合倫理道德和安全措施要求的情況下開發,因為脫離人類控制之下的機器很難被阻止住。

          美國知名記者拉里·金對霍金進行了采訪;艚鹪诓稍L中承認,他不認為發展人工智能一定能讓人類朝好的方向發展。

          霍金表示:“當機器發展到能自己演化的重要階段之時,它們的目標與人類愿望之間的相符程度就很難預料了!

          他指出,人工智能可以比人類的智慧發展得更快。

          資料圖:著名天體物理學家霍金。

          他說:“有益的人工智能可以與人類共存,并擴大人類的可能性。但失控的人工智能很難被阻止。在開發人工智能時必須保證符合道德倫理與安全措施的要求!

          他認為,有益的人工智能將出現在人類生活的各方面。

          霍金說:“想象一下那些可以對科學家想法迅速作出評價、更早地查出癌癥、并預測證券市場走勢的人工智能!它們將影響到我們的經濟,影響到我們的決策,并在整體上影響我們的生活!

        [責任編輯:張曉靜]

        相關內容
        A级毛片成人网站_中国女人熟毛茸茸A毛片_亚洲欧美曰本中文字不卡_菠萝蜜在线视频一区二区欧美

        <acronym id="siyyr"><label id="siyyr"><menu id="siyyr"></menu></label></acronym>

            <p id="siyyr"></p>

          1. <table id="siyyr"><ruby id="siyyr"></ruby></table>
          2. <acronym id="siyyr"><label id="siyyr"></label></acronym>
            <acronym id="siyyr"><label id="siyyr"></label></acronym>

            <table id="siyyr"></table>