財神娛樂城

財神娛樂城

玩運彩我們能夠培養中華職業棒戰績的道德機器人嗎?

在這一點上,您可能已經聽說過手推車問題,這可能是倫理學中最539必中法著名的思想實驗。如果您沒有,這是最普遍的形式:有一輛手推車穿過鐵軌,朝綁在鐵軌上的五個人移動。您旁邊有個開關,可以將即將來臨的手推車重定向到側軌,從而節省了五個人。但是,旁人只有一個人。您只有兩個選項可供選擇:

  1. 什麼也不做,讓手推車殺死那五個人。
  2. 輕拂開關,重新引導手推車,殺死一個人。

幾十年前,已經以不同形式引入了這個問題,以此作為將兩種不同的道德思想流派對立的一種方式:功利主義和義務論倫理學。大多數人說,如果遇到這種情況,他們會輕而易舉地做出選擇,因此與功利主義者並駕齊驅。功利主義者認為,使用這種選擇將意味著更大的利益,因為受傷害的人數將減少。

但是,如果您回答說您會全球即時比分o什麼都沒有,沒人能說你錯了,因為牙醫專家認為,主動決定輕拂開關在道義上是錯誤的,因為您打算殺死一個人。與這一願景相對立的觀點是,您在這種情況下的單純存在在道德上迫使您參與其中。有正確的答案嗎?

當然,您的第一個答案是“是”,因為我們都傾向於認為我們要做的是正確的事情。但是,當您開始考慮相反的觀點及其理由時,事情就會變得複雜起來。畢竟,倫理是一種社會建構,大多數時候都具有與現實衝突的內部矛盾。

現代手推車

在談論機器人時,為什麼我們會重新討論手推車問題? David Edmonds在BBC這篇文章中提出的練習可能會幫助您理解。想像一下,您必須編程一輛無人駕駛汽車,而不是手推車,並指導其在類似情況下該怎麼做(撞到一群分散注意力的孩子跑過馬路或避開他們,撞上了迎面而來的騎自行車的人)。您如何“教”它?

再說一次,您可能會覺得功利主義路線是正確的答案,而在這條路線中,您也會佔多數。直到您擺出新姿勢。如果自動駕駛汽車以撞死您的方式(而不是撞倒騎車的人)殺死乘客,您將如何回答?有趣的是,人們不太喜歡這個主意,更不用說擁有以這種方式編程的汽車了。

因此,即使自動駕駛汽車可以提高我們的道路安全性並減少人為錯誤(事故的主要原因,請注意)引起的事故數量,人們仍然不確定,僅僅是因為可能會出現道德困境本身在現實中異常出色。然而,在這種情況下,自動駕駛汽車製造商和所有幫助他們的人(從內部開發人員和市場營銷人員到自由設計師和拉丁美洲外包公司)都必須考慮到這一點並做出決定。

隱藏在這種情況下的最終問題超出了自動駕駛汽車的範圍,並且對那裡的所有智能機器人都有直接影響,從已經存在的飛行員到您閱讀本文時正在設計的飛行員。程序員應該將什麼樣的道德準則嵌入其中?我們如何向機器人教授我們複雜且有些混亂的道德?

即使我們弄清楚如何訓練有道德的機器人,也存在一個棘手的問題,那就是確定誰說對與錯。我們是否將道德規範留給政府,製造商,消費者或為這些機器人提供動力的算法?現代手推車問題(npb戰績 自動駕駛汽車)只是一個很老的問題的新面貌:誰來決定對與錯?

我們應該把它留給AI嗎?

由於未來的機器人旨在像人類一樣聰明,因此考慮機器人技術的道德方面是很自然的。這項艱鉅的任務已經由兩個獨立的研究機構進行審查,這些研究機構考慮了本次討論中發揮的兩個主要方面。

一方面,存在著機器人倫理學,基本上解決了我們到目前為止指出的所有問題。換句話說,這是與創建機器的人員打交道的領域。機器人倫理學在分析中著眼於我們如何設計,構建,使用和對待AI,因為所有這些階段最終都將定義機器人的行為方式和“思維方式”。這很關鍵,因為所有人都有偏見,因此控制這些偏見中有多少轉移給機器人以及它們如何影響它們就很重要。

另一個研究領域是機器倫理,其重點是機器人本地下539公式身。在這裡,分析是針對人為道德行為者(AMA)的機器人進行的,他們能夠評估複雜的情況,潛在的行動方案以及它們可能帶來的影響和後果。通過研究這一點,我們可以在機器人倫理學上走其他可能的道路–基本上,將整個事情留給AI。

借助機器學習,這是有可能實現的,這是人工智能的強大子集,能夠檢查大型數據集以識別模式,根據發現的內容制定決策並在使用更多的過程中完善其程序。基本上,機器學習基於會隨著時間的流逝和“獲得經驗”進行自我訓練的算法。

有些人可能會想將道德問題留給這些算法,因為這會自己承擔回答這些問題的負擔。但是,b運彩分析師推薦僅當您忽略機器學習的工作原理時,才相信這很容易。為了以最簡單的方式進行解釋,可以使用最少的規則集對ML算法進行編程,從中他們可以自行找出道德問題。

您可以想像,這套規則(可能從“避免痛苦”和“促進幸福”到阿西莫夫的三項機器人法則)必須由某人設計。換句話說,儘管機器可以檢查新場景運彩場中為了建立一個更強大的道德框架,它必須開始從人類基礎上建立自己的理解。

那不是全部。正如先前的努力向我們展示的那樣,基於ML的機器人可以學習一些有問題的課程。 Microsoft為我們提供了最好的示例來說明這一點。早在2016年,這家Redmond巨頭就推出了聊天機器人Tay,該機器人應該與Twitter用戶對話,並在每次交互時開發新功能。隨著Twitter成為Twitter,Tay僅花了幾個小時就成為了種族主義者和否定主義者。即使按計劃進行工作(Tay確實學習了新事物),所學內容仍然令人擔憂。

即使機器學習算法走了“正確的道路”,它們也可能最終以我們無法預見或無法理解的方式發展。經過一定程度的完善後,機器人可以提出我們可能尚未意識到或未想到的新方法。想不到這種可能性,沒有聽到夢幻般的《 2001:太空漫遊》中的HAL 9000說:“對不起,戴夫,恐怕我做不到。”

不完美世界的機器人

我們都希望能夠創建道德機器人,但鑑於我們自己的人性和理解道德的局限性,也許我們都應該考慮一個不同的目標。與其嘗試創建符合道德規範的機器,不如專注於如何打造符合道德規範的機器人。換句話說,我們應該追求與我們一樣道德的機器人的設計,這些機器人將存在缺陷,但旨在將最佳意圖放在心上。

劍橋大學博士學位的艾米·裡默(What Amy Rimmer)捷豹路虎(Jaguar Land Rover)自動駕駛汽車的首席工程師說,在BBC文章中可能是了解這一點的好方法。 NBA場中撲克技巧當被問及關於手推車問題,我們應該教什麼自動駕駛汽車。 Rimmer指出,她“不必回答該問題即可通過駕駛考試,因此我可以開車。那麼,為什麼我們要指出,在允許我們從汽車中受益之前,汽車必須對這些不太可能的情況做出回答?”

我們極有可能最終會擁有像我們一樣聰明的智能機器人。為什麼我們不希望創建與我們一樣道德的機器人,尤其是在相同的矛盾方式下?也許基於ML的機器人的發展將引領並向我們展示新的方法,這將使我們能夠重新考慮我們的許多道德困境,包括手推車問題。

視頻–人工智能

____________________________________________________________

  • 有趣的文章1:“什麼是人工智能?”
  • 有趣的文章2:“什麼是機器人?”

分享