硅谷科技公司帶給我們的經驗教訓和啟示
2017-01-03 14:19:52   來源:光明網
內容摘要
盡管硅谷所有的科技公司都將員工多元化定位為優先工作,但提升包容性的進展一直很慢。2017年,隨著科技公司更深入地探索機器學習、無人駕駛汽車,以及其他類型的自動化,我們要看到技術的局限性,并記住人工所擅長的領域。

硅谷科技公司帶給我們的經驗教訓和啟示 科技世界網


硅谷(Silicon Valley)位于美國加利福尼亞州北部,是高科技事業云集的美國加州圣塔克拉拉谷(Santa Clara Valley)的別稱。硅谷是當今電子工業和計算機業的王國,盡管美國和世界其他高新技術區都在不斷發展壯大,但硅谷仍然是高科技技術創新和發展的開創者。

過去的2016年,硅谷的創業公司、獨角獸和上市公司犯過許多錯誤。其中的三大問題,為科技公司的未來發展提供借鑒。


1.員工隊伍多元化不要開倒車

2014年,蘋果、Facebook、谷歌、Twitter和其他主流公司發布了員工多元化報告,希望改變員工隊伍構成單一的問題。然而,盡管所有公司都將多元化定位為優先工作,但提升包容性的進展一直很慢。在大部分這些公司,黑人員工的比例一直低于5%,而女員工的比例則不到1/3。在管理崗和技術類崗位上,這些比例還要更低。由于缺乏進展,多家公司,包括Twitter、Pinterest、eBay和Salesforce,都推遲了最新多元化報告的發布。

盡管進展不大,但放棄員工隊伍多元化的努力并不是個好主意。關于多元化報告,最關鍵的一點是,確保多元化是一項高優先級工作。報告顯示,頂級科技公司中的員工構成仍然非常單一。為了推動民族、種族和性別的多元化,我們需要繼續探討包容性的問題。


2.算法存在局限

2016年,Facebook曾多次嘗試用技術去取代人工判斷,這也向我們證明了計算機算法存在的局限。2015年底,Facebook在巴黎的公布襲擊之后立即啟用了安全確認產品,而在貝魯特的自殺式襲擊后卻沒有這樣做。這遭到了批評。當時,Facebook表示,巴黎恐怖襲擊是該公司首次在恐怖襲擊事件中啟用安全確認功能(該功能通常用于自然災害)。2016年,Facebook設計了一種方式,當許多人討論當地的災難事件時自動觸發安全確認功能。緊急響應組織對于Facebook這一功能的推出感到擔憂,因為Facebook將有權判斷,局面是否算得上危機。

瑞貝卡·古斯塔夫森(Rebecca Gustafson)2016年早些時候表示:“在緊急響應領域,我們討論的最重要問題在于,錯誤的信息比沒有信息更可怕。緊急響應組織的反應太慢會遭到批評,但科技公司的速度已經扭曲。”

在2016年的美國大選周期中,Facebook平臺上的假新聞問題也備受批評。關于Facebook傳播不實新聞的問題,Facebook CEO馬克·扎克伯格(Mark Zuckerberg)表示,社區的標記將有助于阻止虛假內容,而Facebook并不希望成為事實的仲裁者。無論是安全確認功能還是假新聞的傳播都表明,算法還無法區別真實信息和夸大的信息。在受到公開壓力之后,Facebook宣布將與第三方合作,標記虛假新聞。未來,可疑的新聞將會被標記,在消息流中的排序將降低。

不過,2016年帶來的一條經驗在于,低效問題無法完全通過機器去解決,許多問題仍需要人工介入。


3.用戶永遠正確

2016年,我們再次看到,滿足用戶需求有多么重要。Facebook是這樣的例子之一,而Evernote則是另一個例子。近期,Evernote發布了新的隱私政策,規定用戶的筆記將被Evernote負責機器學習技術的員工定期評估。Evernote CEO解釋稱,分享給員工的筆記將會被刪除識別信息,但用戶仍對此感到擔憂。在引發強烈反彈之后,Evernote決定將這一項目改為自愿參與。根據新政策,只有對同意參加項目的用戶,筆記才會被分享給Evernote員工。

杰西卡·阿爾芭(Jessica Alba)的Honest Company被控更改了洗衣粉的配方。此前美國媒體報道稱,Honest Company使用了椰油醇硫酸酯鈉。2016年,Honest Company遭遇了一系列的用戶投訴,質疑該公司的產品是否真的天然或有機。Honest Company表示,該公司調整配方是為了“優化產品的效果”。

對于2017年,這些有何借鑒意義?隨著科技公司更深入地探索機器學習、無人駕駛汽車,以及其他類型的自動化,需要記住的一點是,我們要看到技術的局限性,并記住人工所擅長的領域。透明度很關鍵,隱瞞信息將損害此前所建立的關系。此外,在開發新產品時,需要思考你的業務能給世界帶來哪些積極改變,并傾聽用戶的意見。

(如需轉載,請注明來源自 科技世界網
TLC官网