亮相英偉達大會,NEAR緣何莫名成了AI頭部公鏈?
星球君的朋友们
2024-03-13 05:22
本文约1394字,阅读全文需要约6分钟
背靠高性能的鏈功能,NEAR做AI方向的技術延伸與敘事引導,似乎要比純鏈抽像要不明覺厲多了。

原文作者:Haotian(X:@tmel0211)

最近,NEAR founder @ilblackdragon 將亮相英偉達AI 大會的消息,讓NEAR 公鏈賺足了眼球,市場價格走勢也喜人。不少朋友疑惑,NEAR 鏈不是All in 在做鏈抽象麼,怎麼莫名其妙就成了AI 頭部公鏈了?接下來,分享下我的觀察,順帶科普下一些AI 模型訓練知識:

1)NEAR 創辦人Illia Polosukhin 有過較長的AI 背景,是Transformer 架構的共同建構者。而Transformer 架構是如今LLMs 大型語言模型訓練ChatGPT 的基礎架構,足以證明NEAR 老闆在成立NEAR 前確實有AI 大模型系統的創建與領導經驗。

2)NRAR 曾在NEARCON 2023 上推出過NEAR Tasks,目標是為了進行人工智能模型的訓練和改進,簡單來說,模型訓練需求方(Vendor)可以在平台發布任務請求,並上傳基礎資料素材,使用者(Tasker)可以參與進行任務答題,為資料進行文字標註和影像辨識等人工操作。任務完成後,平台會給用戶NEAR 代幣獎勵,而這些經過人工標註的數據會被用來訓練對應的AI 模型。

例如:AI 模型需要提高識別圖片中物體的能力,Vendor 可以將大量圖片中帶有不同物體的原始圖片上傳到Tasks 平台,然後用戶手動標註圖片上上物體位置,就可以生成大量“圖片- 物體位置」的數據,AI 就可以用這些數據來自主學習來提升圖片辨識能力。

乍一聽,NEAR Tasks 不就是想社會化人工工程來為AI 模型做基礎服務嘛,真有那麼重要?在此加一點關於AI 模型的科普知識。

通常情況下,一次完整的AI 模型訓練,包括資料收集、資料預處理和標註、模型設計與訓練、模型調優、微調、模型驗證測試、模型部署、模型監控與更新等等過程,其中資料標註和預處理為人工部分,而模型訓練與優化為機器部分。

顯然,大部分人理解中的機器部分要明顯大於人工部分,畢竟顯得更高科技一些,但實際情況下,人工標註在整個模型訓練中至關重要。

人工標註可以為圖像中的物件(人、地點、事物)等添加標籤,供電腦提升視覺模型學習;人工標註還能將語音中的內容轉化為文本,並標註特定音節、單詞短語等幫助電腦進行語音辨識模型訓練;人工標註還可以為文字添加一些快樂、悲傷、憤怒等情緒標籤,讓人工智能增強情緒分析技能等等。

不難看出,人工標註是機器進行深度學習模型的基礎,沒有高品質的標註數據,模型就無法有效率學習,如果標註數據量不夠大,模型效能也會受到限制。

目前,AI 微創領域有許多基於ChatGPT 大模型進行二次微調或專案訓練的垂直方向,本質上都是在OpenAI 的資料基礎上,額外增加新的資料來源尤其是人工標註資料來施展模型訓練。

例如,醫療公司想基於醫學影像AI 做模型訓練,為醫院提供一套線上AI 問診服務,只需要將大量的原始醫學影像資料上傳到Task 平台,然後讓使用者去標註並完成任務,就產生了人工標註數據,再將這些數據對ChatGPT 大模型進行微調與優化,就會讓這個通用AI 工具變成垂直領域的專家。

不過,NEAR 僅僅憑藉Tasks 平台,就想成為AI 公鏈龍頭顯然還不夠,NEAR 其實還在生態系統中進行AI Agent 服務,用來自動執行用戶一切鏈上行為和操作,用戶只需授權就可以自由在市場中買賣資產。這有點類似Intent-centric,用AI 自動化執行來提升使用者鏈上互動體驗。除此之外,NEAR 強大的DA 能力可以讓它在AI 資料來源的可追溯性上發揮作用,追蹤AI 模型訓練資料有效性和真實性。

總之,背靠高性能的連鎖功能,NEAR 做AI 方向的技術延伸與敘事引導,似乎比純鏈抽像要不明覺厲多了。

半個月前我在分析NRAR 鏈抽象時,就看到了NEAR 鏈性能+ 團隊超強web2 資源整合能力的優勢,萬萬沒想到,鏈抽像還沒有普及開來摘到果子,這一波AI 賦能再一次把想像力放大了。

Note:長期關注還是要看NEAR 在「鏈抽象」上的佈局和產品推進,AI 會是個不錯的加分項和牛市催化劑!

原文連結

星球君的朋友们
作者文库