close

編者按:本文來自微信公眾號“筆記俠”(ID:Notesman),作者 風瀟瀟,36氪經授權轉載。2019年,移動互聯網不像前兩年,沒有帶來太大驚喜,但有兩款應用一夜之間刷爆朋友圈。一款是某知名換臉應用。僅需上傳一張照片,“推薦-添加面孔-替換”三步走,你就可以成為經典影片中的影帝/影后,整個過程用時不到10秒。另一個是一鍵脫衣的APP。只需要一張照片,即可借助神經網絡技術,一鍵“脫掉”女性的衣服。無需任何技術支持,一鍵即獲取。(圖片來源網絡,侵刪)兩款APP刷爆各大社交平台後,引發了巨大的爭議。首先是換臉APP用戶發現自己的照片在不知情的情況下被用在別的互聯網平台上。而後很快,同類型APP就陷入了侵權的紛爭當中。爆火的AI應用迅速被下架,速成走向速朽。引人反思的主要在兩點:一是企業方利用AI(人工智能)和用戶數據的邊界在哪裡?應該如何界定?監管應該如何明令禁止?二是企業方應該擔負起什麼樣的社會責任?而不是在灰色地帶,利用公眾信任打擦邊球?簡單說,就是AI(人工智能)的邊界在哪裡?企業又應該如何應對?一、大辯論:人工智能是揚善還是作惡?AI(人工智能)究竟是揚善,還是作惡?一方面,AI(人工智能)造成了像我們文章開頭提到的隱私洩露、非法使用個人信息等等問題。與此同時,“阿爾法狗”事件之後,可以說,人工智能完全顛覆了之前人們對AI的認知。像阿爾法狗那麼聰明而且可以24小時不間斷地學習,不間斷地工作,人類有可能打敗它嗎?科技界的各路大佬,也表達了對AI的擔憂甚至恐懼。斯蒂芬·霍金曾說,人工智能的崛起可能是人類文明的終結。埃隆·馬斯克也說過,人工智能是人類生存最大的威脅,研究人工智能如同在召喚魔鬼。但事實上,現在我們每天的生活已經無法離開AI了——家中的小愛音響,車中的智能導航助手,應用裡的智能客服,會打電話的銀行客服,國際旅行時的隨身翻譯……AI已經悄悄地滲透進了我們的生活。我們還是以AI人臉識別為例子:人臉識別,不僅方便我們的移動支付,也可以在我們提著菜籃子回小區的時候,幫我們直接刷臉開門,還可以幫助警察抓捕疑犯或者尋找失蹤的小孩。人臉識別的人工智能甚至還可以用到動物上,比如豬臉識別。中國人消費了世界上最大規模的豬肉,而豬的養殖有一個很大的問題在於豬瘟。AI養豬,一定程度上能儘早地識別患病的豬,及時進行治療或隔離,能夠最大程度地減小疫病對整個養豬場的影響。不置可否,這項科技的發明不僅在重塑商業形態,也給我們帶來了諸多的便利,促進社會的進步。但是也出現了我們開頭提到的隱私洩露、商用侵權的嚴重問題。AI掌握在人的手中,科技是揚善還是作惡,事實上都取決於人,甚至能放大人性中黑暗或善的一面。企業在利用AI的時候,最終結果所呈現的“向善”或“作惡”,其實正映照出企業的“技術價值觀”,反映出企業所相信的,技術能為人帶來些什麼。二、AI是人類的一面鏡子人工智能,Artificial Intelligence,其實本意是“人造出來的智能”,只能通過學習人的行為和既有的歷史數據,形成智能。也就是說,只要沒有技術性錯誤,AI最後導向的結果,背後所有的因果關係,都源於人類社會,最終導向它自己的“理解”。正因為AI是對“智能”的再造,就像人類智能的模仿者,完全基於對人類既有的行為形成的歷史數據,進行學習,所以AI就成為一面鏡子,讓人類能夠更清楚地看清去自我,反思什麼才是更加美好,未來世界應該用AI來做什麼。絶對的技術,帶來絶對的濫用?思想家阿克頓說:絶對權力導致絶對腐敗。放在現在,絶對的技術,也會導致絶對的濫用。隨著人類社會發展,後來出現了權力制衡等等模型。這對於我們去界定“AI的邊界”,就像人類社會有行為規範、法律法規一樣,用一些原則去解決現有的問題,制衡其發展不要失控,也不要被濫用。比如,在微軟對於人工智能的解決方案中就率先提出了,在公司治理中成立道德總監,道德辦公室或者道德委員會的組織部門,能夠始終保持獨立、長遠、社會的視角,去觀察和監督技術在整個企業中的實踐。而這僅僅是一個方面。要做到這些,我們需要行業頭部企業站出來,率先進行反思,全面樹立標準,建立AI技術的行動指南。三、我們需要什麼樣的未來世界?數字化的時代,你的每次點擊也是一次選擇,是對你希望的未來世界的一次投票。那麼,在數字時代,應該是怎樣的數字規則?公平正義是基礎,隱私是關乎個人安全的基石,權力透明和問責可以規範企業的責任義務,最終才能帶來信任包容等等……每個人、每家企業或許都能給出自己如何擔當的答案。在微軟提出的方法論框架中,包含了六個關鍵詞:公平、可靠和安全、隱私和保障、包容、透明、問責。1. 公平 vs 偏見人非聖賢。人類無法做到100%無偏見,很多時候甚至不是有意為之,所以喂養給機器的數據難免也帶有偏見。2015年,大名鼎鼎的谷歌在自家圖片應用把兩個黑人標記為“Gorillas(大猩猩)”,引起一片嘩然。在谷歌相冊推出的同時,雅虎旗下圖片分享網站也發佈類似圖象自動標記功能,也曾將黑人的照片標記為猿猴。市值已經突破一萬億美元的亞馬遜,在2014-2017年使用的AI招聘軟件中,被查出會對簡歷中含有“女性”字樣或暗示申請者是女性的簡歷降級,對男性求職者更加有利。為什麼開放平等的亞馬遜,人工智能會出現這樣的標準?究其原因,軟件人工智能學習的內容,來源於亞馬遜歷史10年的簡歷,而恰恰這10年,亞馬遜聘用的男性求職者更多。所以究其根本,是技術出錯,還是人的錯?如果AI只是揭示了社會歷史上一個眾所周知但“不能說的秘密”,那麼應該被改變的是AI,還是人類自己呢?最終,亞馬遜發現異常並下架了這款“打臉”人工智能招聘軟件。在美國,夫妻是聯合報稅的,但在最近蘋果信用卡的案例中,某男子獲得的 Apple Card 信貸額度卻是妻子的 20 倍左右。蘋果聯合創始人史蒂夫·沃茲尼亞克等人也報告了類似的結果。深陷醜聞後,Apple Card聯合發行商高盛銀行在Twitter 聲明,Apple Card 申請流程,並不會引入性別或其它偏見:“我們從未、且永遠不會根據性別等因素做出決定。”目前,華爾街監管機構已經對高盛集團的信用卡業務展開調查。這就是首先要引入“公平”原則的原因。如果在企業AI的黑箱中就潛藏不公平,將會造成極為可怕的影響。所以, 人工智能系統應該公平對待每一個人,避免對處境相似的人群區別對待。如何做到?微軟給出了以下關鍵考量指標:用這些多維度的指標,幫助企業評估AI算法是否能在長短期都做到公平,避免像蘋果這樣的情況,或者能儘早檢測出情況。2. 可靠和安全很多人不知道,在中國一些看似最傳統的企業,都已經武裝上了“人工智能”。“煤礦大腦”在山西、內蒙古、陝西等大量的煤礦應用,讓煤礦企業減少礦井作業人員10%,避免安全事故,識別和預警影響連續生產的異常狀況,提高煤礦有效工時10%,使年產百萬噸的煤礦可增收3000萬以上。像這種對於人身安全、組織協作要求非常之高的產業,如開礦、冶金、製造業工廠等等,無論在正常,還是出現意外時,都需要保障AI(人工智能)能夠可靠、安全的運行,不造成更多問題。那麼,其考量指標包括:3.隱私和安全你有沒有這種經歷?在一些應用中搜索鞋子之後,各種網站就給你推送鞋子的廣告。當在B家咖啡線上購買後,就收到了A家咖啡的打折券?當AI滲透入每個人日常生活方方面面的時代,我們要怎麼保護自己的隱私?企業又應該做什麼,來獲取大眾的信任?微軟提出的考量框架如下:隱私安全的保護不能只依靠企業的自覺。市場監管主體已經在行動。我們常常看到,某些知名APP因私自收集用戶個人信息,而被工信部點名整改,否則將被下架。一些巨頭也已經在行動了。2019年因美國質疑其信息安全的華為,就發佈了《AI的安全和隱私保護白皮書》,介紹華為對AI安全與隱私問題和解決方案的思考與實踐,並提出了AI安全與隱私保護治理責任共擔模型。在大數據時代,信息就是資產,企業、用戶、政府都是利益相關方,一方進一寸,就意味著另一方必須退一寸。一切都是博弈的結果,不要忘了自己手中的一票。4. 包容據世界殘疾報告指出,全球殘障人士已超10億人次,占全球總人口15%。在中國,平均每15人裡就有一名殘障人士。對於全球10億殘障人士而言,人工智能技術意味著什麼?遊戲規則的改變。譬如,從實時語音到文本轉錄、視覺識別服務和預測文本功能等智能解決方案,已經在為那些具有聽覺、視覺和其他障礙的人們提供支持。AI對於人體的補充延伸,也在創造過去所謂的奇蹟。但與此同時,在電影中常常出現的“賽博格”(機器人類),之所以會帶來恐慌,就是技術狂飆突進,沒有從社會、倫理、法律等等方面,去進行討論和限定。所以對於這類醫療器械、輔助器械等等人工智能公司,應該做到什麼?5. 透明人們往往並非恐懼科技本身,而是恐懼科技帶來的未知。就像飛機上的黑匣子,不打開它,就找不到發生空難的真實原因。AI企業要做到透明,至少需要讓人們有權利知道人工智能系統是如何做出決策的,尤其是當這些決策影響到了生活;有權利知道,APP是否在監視自己的每次點擊和行為,會用AI模型對自己的搜索記錄,生成用戶畫像,並向你推送定製化廣告。數據權限的明確定義,決策流程的透明,輸出結果的解釋,做到這些,用戶才可能信任AI,從而信任企業。6. 問責當技術快速發展,最讓人恐懼的是“失控”。所以,使用AI技術的權責和義務,不僅需要依賴企業自覺自發的行為,也需要整個產業界的共識,媒體、公眾和政府的介入,推動其發展。人們在近現代社會經濟不断發展的過程當中,我們發現人類一直在處理短期利益與長期利益,經濟發展與社會責任,尋求這些矛盾之間的平衡。於是,市場開始要求企業去披露CSR(Corporate Social Responsibility 即企業社會責任)、ESG(Environment, Social Responsibility and Corporate Governance即環境、社會和公司治理 )的行為報告,讓公眾進行瞭解和監督,做出消費選擇或投資決策。企業應該負擔起的責任,也得到大眾、媒體、投資人股東的關注和監督。現在,也需要讓讓陽光照進來,照進這些可能讓人生畏、讓人看不懂的科技企業。聽不到任何不同聲音的科技發展,才真正讓人恐慌。四、人機共生時代:企業的責任2020年已經來臨,但世界上並沒有發生那些科幻電影中出現的可怕畫面。比如,《終結者》中強大得令人髮指的機器人,要把人類趕盡殺絶。又或者《銀翼殺手》中,人類要消滅機器人。反而,AI更多是在居家時幫人開燈、放音樂,開車時導航換目的地的“小助手”,變成人的手、眼睛和大腦的延伸。AI可以成為一面鏡子,來幫助人看清技術的發展。AI是不是可以幫助我們更好地修正自己?更好地想清楚,我們需要什麼樣的企業?什麼樣的未來世界?我們希望未來的人類,我們自己的孩子,會活成什麼樣?以上的問題,實際上貫穿了我們全文的討論,同時,也貫穿著微軟打造的AI商學院一系列免費在線課程(點擊“閲讀原文”一鍵獲取免費課程)。從案例研究、專家講座視頻以及專業見解,給繁忙的CEO、創業者、高管和工程師們,一個成熟的框架,利用碎片時間去瞭解,與自己公司面臨的實際問題結合。未來已來。微軟AI商學院正是從AI行業拓荒者專業經驗的角度,給予企業高層一些頂層設計的見解。最終AI向善,就是人的向善,是企業的向善。只有企業考慮清楚了自己的技術價值觀,才能在追求高效、高速發展的路上,不丟失人之為人那些美好的東西。喬布斯說"Stay hungry,stay foolish"(求知若饑,虛心若愚),成為很多年輕人的座右銘。但在面臨拓展人類邊界的前沿科技時,我們也要"Stay critical,stay rational"(保持質疑,保持理性)。本文經授權發布,不代表36氪立場。如若轉載請註明出處。來源出處:36氪


文章轉貼如有侵權請告知我們會立即刪除
a片看飽直播網 免費美女影片 華人影音視訊聊天 學生集體性派對 網路校園美女寫真 嘟嘟情人色網 online遊戲 影音視訊美女 通博歐博百家 快速提款 球賽比分 娛樂城 免費一夜情聊天室 免費試看短片a片 通博娛樂 亞洲娛樂城 摸乳 情趣按摩棒 免費交友聊天室 色a漫 免費18成人影城 通博真人百家 視訊聊天室 線上輪盤 免費影片 成人影片 九州線上 愛言情小說網 漂亮荷官 交友留言板 18成人 線上免費試看短片a片 交友啦咧聊天室 免費a片 新新人類影音視訊網 免費視訊 電影亞洲無碼一夜情 85cc免費影城 射精就是快樂 金瓶梅成人影片分享 視訊俱樂部 a片 色美眉部落格 免費視訊情色 色a片色情自拍影片庫 通博手遊 全裸寫真集圖片 色18成人 淫娃免費視訊聊天室 色色網 網路小說免費看 通博百家樂 桌布動畫圖片 免費視訊交友聊天室 淫女交流 成人a片 影音視訊聊天室 試玩21點 成年舒服床上吹 亂倫小說 台灣美女寫真集圖片館 校園美女a片影音視訊網 線上麻將 視訊做愛 性愛 寄情築園小遊戲 龍筋保養吹吹樂 美女 通博運彩分析 台灣線上遊戲 運動遊戲 即時賠率 a片情報站 成人論壇 成人搏奕 視訊語音交友 色sex 情色a片 美女情人視訊網 免費清涼秀比基尼 骰子輪盤遊戲 骰寶鬥地主 百家樂 台灣線上賭博 情色貼圖 免費一對多視訊聊天 視訊美女 a片女優激情視訊 情趣跳蛋 換妻性愛派對 試玩骰寶 言情小說 免費a片下載無碼 美女遊戲 爱情武侠小说 線上水果盤 免費免費線上成人影片 免費網友自拍 辣妹影音頻道 球賽下注 免費視訊妹
arrow
arrow
    全站熱搜

    zxpveve28 發表在 痞客邦 留言(0) 人氣()