亚洲国产综合网站|精品国产自在免费观看|日本免费精品一区二区三区|亚洲一区在线日韩在线尤物

<blockquote id="2t14e"></blockquote>
<ul id="2t14e"></ul>
  • <blockquote id="2t14e"></blockquote>

    1. 人工智能的潛在風(fēng)險(xiǎn)閱讀答案

      時(shí)間:2019-01-25 19:42:03 人工智能答案 我要投稿

      人工智能的潛在風(fēng)險(xiǎn)閱讀答案

        騰訊科技訊 5月3日消息,著名物理學(xué)家史蒂芬霍金(Steveb Hawking)在討論約翰尼德普(Johnny Depp)主演的新片《超驗(yàn)駭客》時(shí)稱,人工智能或許不但是人類歷史上最大的事件,而且還有可能是最后的事件,他的意思是:人工智能可能會(huì)導(dǎo)致人類的滅亡。

      人工智能的潛在風(fēng)險(xiǎn)閱讀答案

        當(dāng)你為人工智能技術(shù)的飛速發(fā)展而歡呼雀躍的時(shí)候,你是否想過這可能并不是一件好事?

        在觀看了德普主演的新片《超驗(yàn)駭客》后,霍壘在為《獨(dú)立》雜志撰寫的一篇文章中明確地表達(dá)了他對(duì)這個(gè)問題的擔(dān)憂。

        霍金擔(dān)憂的對(duì)象不僅僅是未來(lái)的人工智能技術(shù),甚至還包括現(xiàn)在的一些公司比如谷歌和Facebook,他說(shuō):“人工智能的短期影響取決于由誰(shuí)來(lái)控制它,而長(zhǎng)期影響則取決于它是否能夠被控制。”

        不管從短期還是長(zhǎng)期角度來(lái)說(shuō),人工智能都存在著巨大的潛在風(fēng)險(xiǎn)。實(shí)際上,霍金似乎根本就不信任所謂的人工智能專家。

        他說(shuō):“未來(lái)可能出現(xiàn)的情況到底是好是壞完全是無(wú)法預(yù)料的,面對(duì)這種情況,專家們肯定會(huì)盡一切可能去保證得到最好的結(jié)果.對(duì)嗎?錯(cuò)!如果有一個(gè)優(yōu)越的外星文明給我們發(fā)來(lái)一條信息說(shuō):‘我們將在幾十年之后到達(dá)地球!覀兪欠駪(yīng)該回答說(shuō):‘好的,當(dāng)你到達(dá)地球的時(shí)候請(qǐng)通知一下我們,我們將給你留門’?我們可能不會(huì)那么做,但是如果人工智能技術(shù)繼續(xù)發(fā)展下去,差不多就會(huì)出現(xiàn)那樣的情況,”

        實(shí)際上,堅(jiān)持技術(shù)發(fā)展似乎可以消除或避免最終產(chǎn)品可能對(duì)人類構(gòu)成的威脅。無(wú)人汽車就是個(gè)很好的.例子,工程師們似乎并不關(guān)心人們?cè)陂_車的過程中獲得的樂趣。

        霍金承認(rèn),機(jī)器人和其他的人工智能設(shè)備也許會(huì)給人類帶來(lái)巨大的好處。如果那些設(shè)備的設(shè)計(jì)非常成功,就能給人類帶來(lái)巨大的好處,他說(shuō)那將是人類歷史上最大的事件。然而他同時(shí)也提醒說(shuō),人工智能也有可能是人類歷史上最后的事件。實(shí)際上,人類在考核人工智能技術(shù)的潛在風(fēng)險(xiǎn)和收益方面所做的研究工作太少;艚饘(duì)此表示擔(dān)憂和哀嘆。

        他說(shuō):“人工智能技術(shù)發(fā)展到極致程度時(shí),我們將面臨著人類歷史上的最好或者最壞的事情!

        霍金以前就曾試圖提醒人們注意一點(diǎn),即科幻的魅力會(huì)蒙蔽我們的雙眼。它有時(shí)會(huì)掩蓋住一個(gè)重要的問題,即最終的結(jié)果有可能引發(fā)一場(chǎng)浩劫。他曾經(jīng)說(shuō)過,外星文明可能會(huì)憎恨地球文明。

        人類有一種自戀的傾向,盲目相信自己很聰明而從不考慮事情有時(shí)可能會(huì)出錯(cuò);蛟S正如霍金所說(shuō)的那樣,科技行業(yè)應(yīng)該更多地把關(guān)注的焦點(diǎn)放在未雨綢繆上面。

        l. 下列對(duì)文章內(nèi)容的理解正確的一項(xiàng)是

        A. 人工智能長(zhǎng)期來(lái)看只在未來(lái)存在著巨大的潛在風(fēng)險(xiǎn),所以我們必須防范未然。

        B. 基于人工智能的潛在風(fēng)險(xiǎn),霍金根本就不信任所謂的人工智能專家。

        C. 人工智能技術(shù)發(fā)展到極致程度時(shí),人類歷史上最好或最壞的事情都可能發(fā)生。

        D. 霍金認(rèn)為,機(jī)器人和其他的人工智能設(shè)備會(huì)給人類帶來(lái)巨大的好處。

        2. 下列對(duì)人工智能可能引發(fā)的人類終結(jié)的理解不正確的一項(xiàng)是

        A. 人工智能短期影響取決于由誰(shuí)來(lái)控制它,唯利是圖的人掌握它,會(huì)損人利己;心懷叵測(cè)的人掌握了人工智能技術(shù),有可能會(huì)毀滅人類甚至地球。

        B. 人工智能長(zhǎng)期影響取決于人類能否控制它,即人工智能技術(shù)發(fā)展到了極致,以至于人類的智慧和能力或許無(wú)法控制它。

        C. 人工智能專家們只看到它有利于人類的一面,而往往忽視了它可能無(wú)法預(yù)知的不利于人類的一面。

        D. 由于人工智能技術(shù)的繼續(xù)發(fā)展,在未來(lái)可能出現(xiàn)的情況到底是好是壞完全是無(wú)法預(yù)料的。

        3. 根據(jù)文章內(nèi)容,下而推斷不正確的一項(xiàng)是

        A. 面對(duì)無(wú)法預(yù)料的未來(lái),霍金認(rèn)為人工智能會(huì)引導(dǎo)人類走向滅亡。

        B. 如果人工智能設(shè)備的設(shè)計(jì)非常成功,就能給人類帶來(lái)巨大的好處。

        C. 對(duì)人工智能的潛在風(fēng)險(xiǎn),人類還沒有足夠關(guān)注,研究工作太少。

        D. 人類過于自戀和自信,以至于只專注好的趨勢(shì),而忽視危機(jī)的來(lái)臨。

        參考答案

        1. (3分)C(A. 短期也存在風(fēng)險(xiǎn),“只在”表述不準(zhǔn):B. 只是“似乎”,并未確切;D. “也許”、“如果”等詞,說(shuō)明霍金的表述是不確定的。)

        2. (3分)A(原文沒有說(shuō)“毀滅地球”。)

        3. (3分)A(只是“可能”,并沒有那么確切。所以這種推斷是片面的。)

      【人工智能的潛在風(fēng)險(xiǎn)閱讀答案】相關(guān)文章:

      1.人工智能時(shí)代天氣如何預(yù)報(bào)閱讀答案

      2.人工智能贏了人類該恐懼嗎閱讀答案

      3.詞典的故事閱讀答案

      4.文章無(wú)邪閱讀答案

      5.文章《雪》閱讀答案

      6.海市課后閱讀答案

      7.斜視課后閱讀答案

      8.文章《老鼠的困惑》閱讀答案