【
儀表網 儀表下游】導讀:人們普遍認為,我們在日常生活中看到的人工智能應用只是其力量和能力的冰山一角。雖然人工智能驅動的設備和技術已經成為我們生活的重要組成部分,但機器智能仍可能在一些領域做出重大改進。為了填補這些隱喻性的空白,非人工智能技術可以派上用場。
例如繁重的科學和工程計算本來是要人腦來承擔的,如今計算機不但能完成這種計算,而且能夠比人腦做得更快、更準確,因此當代人已不再把這種計算看作是“需要人類智能才能完成的復雜任務”,可見復雜工作的定義是隨著時代的發展和技術的進步而變化的,人工智能這門科學的具體目標也自然隨著時代的變化而發展。它一方面不斷獲得新的進展,另一方面又轉向更有意義、更加困難的目標。
人工智能(AI)是一種“具有合成智能的新興計算機技術”。人們普遍認為,我們在日常生活中看到的人工智能應用只是其力量和能力的冰山一角。人工智能領域需要不斷演進和不斷發展,以消除常見的人工智能局限性。通常,人工智能由以下子領域組成,如認知計算,也通常包括在內,但以下領域幾乎在所有人工智能系統中無處不在:
•機器學習:機器學習結合使用來自神經網絡的數據、一般和特定統計數據、操作結果和其他來源,在不受外部引導的情況下發現信息中的模式。深度學習使用包含多個復雜處理單元層的神經網絡。深度學習使用更大的數據集來提供復雜的輸出,如語音和圖像識別。
•神經網絡:神經網絡(也稱為人工神經網絡)利用數字和數學信息進行數據處理。神經網絡包含幾個類似神經元和突觸的數據節點,模擬人類大腦的功能。
• 計算機視覺:利用模式識別和深度學習,計算機視覺識別圖像和視頻中的內容。通過對圖像和視頻的處理、分析和獲取知識,計算機視覺幫助人工智能實時解釋周圍環境。
• 自然語言處理:這些是深度學習算法,使人工智能系統能夠理解、處理和生成人類的口語和書面語言。
非AI技術會讓AI變得更先進(或者至少減少AI的局限性),通常會增強其中一個部分,或積極地影響其輸入、處理或輸出能力。
1、半導體:改善人工智能系統中的數據移動
半導體和人工智能系統在同一領域共存的現象很普遍。有幾家公司生產用于人工智能應用的半導體。在現有的半導體企業中,為了制造人工智能芯片或將人工智能技術嵌入到生產線上,實施了專門的項目。這類機構參與人工智能領域的一個突出例子是英偉達(NVIDIA),其包含半導體芯片的圖形處理單元(GPU)被大量用于數據
服務器,以進行人工智能訓練。
半導體結構的改變可以提高人工智能電路的數據使用效率。半導體設計的改變可以提高人工智能內存存儲系統的數據移動速度。除了增加功率,存儲系統也可以變得更高效。
隨著半導體芯片的參與,有幾個想法可以改善人工智能系統的各個數據使用方面。其中一種想法是只在需要的時候向神經網絡發送數據(而不是不斷地通過網絡發送信號)。另一個進步的概念是在與人工智能相關的半導體設計中使用非易失性存儲器。正如我們所知,非易失性存儲芯片在沒有電源的情況下仍然可以保存保存的數據。將非易失性存儲器與處理邏輯芯片相結合,可以創造出滿足新型人工智能算法日益增長的需求的專用處理器。
雖然可以通過半導體的設計改善來滿足人工智能的應用需求,但也有可能引發生產問題。由于對內存的巨大需求,人工智能芯片通常比
標準芯片要大。因此,半導體公司將需要花更多的錢來制造它們。因此,開發人工智能芯片對他們來說沒有多大經濟意義。
為了解決這個問題,可以使用一個通用的人工智能平臺。芯片供應商可以通過輸入/輸出傳感器和加速器來增強這些類型的AI平臺。使用這些資源,制造商可以根據不斷變化的應用需求塑造平臺。通用人工智能系統的靈活性可以為半導體公司帶來成本效益,并大大減少人工智能的局限性。通用平臺是連接基于人工智能的應用和改進的半導體的未來。
2、物聯網(IoT):增強AI輸入數據
人工智能在物聯網中的引入改善了二者的功能,并無縫解決了各自的缺點。正如我們所知,物聯網包含多種傳感器、軟件和連接技術,使多個設備以及其他數字實體能夠通過互聯網相互通信和交換數據。這些設備可以是日常生活用品,也可以是復雜的組織機器。從根本上說,物聯網減少了觀察、確定和理解一個情況或其周圍環境的幾個互連設備的人為因素。相機、傳感器和聲音探測器等設備可以自行記錄數據。這就是人工智能的用武之地。機器學習總是要求它的輸入數據集來源盡可能廣泛。物聯網擁有大量連接設備,為人工智能研究提供了更廣泛的數據集。
為了充分利用物聯網為人工智能系統提供的大量數據儲備,企業組織可以構建自定義機器學習模型。利用物聯網從多個設備收集數據并在時尚的用戶界面上以有組織的格式呈現數據的能力,數據專家可以有效地將其與人工智能系統的機器學習組件集成。
人工智能和物聯網的結合對這兩個系統都很有效,因為人工智能從其物聯網對應物獲得大量原始數據進行處理。作為回報,人工智能可以快速找到信息模式,從未分類的大量數據中整理和呈現有價值的見解。人工智能從一組分散的信息中直觀地檢測模式和異常的能力得到了物聯網傳感器和設備的補充。通過物聯網生成和簡化信息,人工智能可以處理與溫度、壓力、濕度和空氣質量等各種概念相關的大量細節。
近年來,幾家大型企業成功部署了各自對人工智能和物聯網結合的理解,以在其行業中獲得競爭優勢并解決人工智能的局限性。Google Cloud IoT、Azure IoT和AWS IoT是這一趨勢的一些著名例子。
3、圖形處理單元:為人工智能系統提供計算能力
隨著AI的日益普及,GPU已經從單純的圖形相關系統組件轉變為深度學習和計算機視覺過程的一個組成部分。事實上,人們普遍認為GPU相當于普通計算機中的CPU的人工智能。首先,系統需要處理器內核來進行計算操作。與標準CPU相比,GPU通常包含更多的內核。這允許這些系統為跨多個并行進程的多個用戶提供更好的計算能力和速度。此外,深度學習操作處理大量數據。GPU的處理能力和高帶寬可以輕松滿足這些要求。
GPU具有強大的計算能力,可以配置為訓練AI和深度學習模型(通常是同時進行)。如前所述,更大的帶寬使GPU比普通CPU具有必要的計算優勢。因此,人工智能系統可以允許大量數據集的輸入,這可能會超過標準的CPU和其他處理器,從而提供更大的輸出。最重要的是,在AI驅動的系統中,GPU的使用并不會占用大量內存。通常,計算大的、不同的任務需要在標準CPU中使用幾個時鐘周期,因為它的處理器按順序完成任務,并且擁有有限數量的核心。
另一方面,即使是最基本的GPU也有自己的專用VRAM(視頻隨機訪問內存)。因此,主處理器的內存不會被小型和中型進程占用。深度學習需要大量的數據集。雖然物聯網等技術可以提供更廣泛的信息,半導體芯片可以規范AI系統的數據使用,但GPU在計算能力和更大的內存儲備方面提供了資源。因此,GPU的使用限制了AI在處理速度方面的局限性。
4、量子計算:升級人工智能的方方面面
從表面上看,量子計算類似于傳統的計算系統。主要區別在于使用了獨特的量子位(也稱為qubit),它允許量子計算處理器中的信息同時以多種格式存在。量子計算電路執行類似于常規邏輯電路的任務,但添加了糾纏和干擾等量子現象,以將其計算和處理提升到超級計算機水平。
量子計算允許人工智能系統從專門的量子數據集中獲取信息。為了實現這一點,量子計算系統使用稱為量子張量的多維數字陣列。然后使用這些張量創建大量數據集供AI處理。為了在這些數據集中找到模式和異常,部署了量子神經網絡模型。最重要的是,量子計算提高了人工智能算法的質量和精度。量子計算通過以下方式解決了常見的AI限制:
• 與標準計算系統相比,量子計算系統功能更強大,而且不易出錯。
• 一般來說,量子計算有助于人工智能系統的開源數據建模和機器訓練框架。
• 量子算法可以在糾纏輸入數據中尋找模式的過程中提高人工智能系統的效率。
我們可以清楚地看到,人工智能的發展可以通過增加輸入信息量(通過物聯網)、提高數據使用率(通過半導體)、增加計算能力(通過GPU)或簡單地改進各個方面來實現其操作(通過量子計算)。
除此之外,未來可能還有其他幾種技術和概念可以成為人工智能發展的一部分。在其概念和誕生60多年后,人工智能在當今幾乎每個領域都比以往任何時候都更加重要。無論它從哪里開始,人工智能的下一個進化階段都將是引人入勝的。
資料來源:千家網、百科
所有評論僅代表網友意見,與本站立場無關。