「コンピュータは人間を100年以内に上回る」:S・ホーキング氏、AIに警鐘 – CNET Japan

Techworldの報道によると、有名な物理学者のStephen Hawking氏はロンドンで現地時間5月12日、「Zeitgeist 2015」カンファレンスの講演で次のように述べたという。「次の100年間のある時点で、コンピュータはAIによって人間の能力を超えるだろう。それが現実になったとき、われわれはコンピュータが人類の目標と異なる目標を持たないように気をつける必要がある」(Hawking氏…

shino-katsuragi AI, コンピューター, 技術, 未来予想図, テクノロジー, ロボット三原則 フランケンシュタインコンプレックス?
【倫理学】恐怖! モラルが高いロボットは仕事ができないことが判明 — 彼らに「価値判断」を教えるということ|TOCANA

めざましい勢いで進歩を遂げるロボット工学の分野で近い将来登場するであろう高度な自立型ロボットには、人間の子供と同じように倫理やモラルを植え込むべきなのだろうか。そして倫理規範を教え込まれたロボットはどのようにモラルを遵守しながら命令に従い、職務を遂行するのか……。先頃行なわれた実験では、人命を守るようにプログラムされた“倫理的”ロボットは憂慮すべきほどに優柔不断で「使えない」存在であることが判明し…

shino-katsuragi 判断, ロボット, ロボット三原則, 技術
Tags: shino, ロボット, ロボット三原則, 判断, 技術
はてブ | shino |
2014/10/06 15:57 |
【倫理学】恐怖! モラルが高いロボットは仕事ができないことが判明 — 彼らに「価値判断」を教えるということ|TOCANA はコメントを受け付けていません
【海外の反応】 パンドラの憂鬱 海外「進化ぶりに怖くなった」 日本の自己学習するロボットに賛否両論?
東京工大研究所が開発した自己学習するロボットへの海外の反応です。 このロボットは初期段階として基本的な知識だけを持ち、 その知識を使って、目の前の状況に対応できるそうです。 もし今ある知識だけでは対応できない場合は、 手を持って解決方法等を教えてあげると、 それを新たな知識として取り込んでいくことも可能。 また、他のロボットと情報を相互補完し、自分の目の前の状況に対応できるとか。 どれだけの情報量…

shino-katsuragi ロボット, ロボット三原則, 学習能力
危機の人災化を防げるのはリーダーだけ:日経ビジネスオンライン
常に状況認識をあたらにせよ この連載で指摘し続けているように「危機は進行する過程で必ず人災化する」。最初からそのように想定するのが世界の危機管理の常識である。米国の専門家は「福島の原発事故は人災化の典型例ではないか」と言う。ハーバード大学でも多くの専門家が「原発事故への対応をはじめとする政府の危機管理全般について、“人災化過程”を研究したい」と強い関心を寄せている。この件については次回以降で書いて…

shino-katsuragi 危機管理, 人災, SAC問題, リーダー, ロボット三原則 スマートなんだろうけど違和感。なんだろうなぁ。色眼鏡?/「経験が浅く、過剰な自信を持っていない、階級の低い人間が「おかしい」と気づく場合が多い。」