最近看到一些公司在找人,把會用Hadoop認定是有大數據處理能力,
甚至會看研究所做的題目是不是Hadoop?
例如這篇
https://goo.gl/0cTk60
還有這篇
https://www.facebook.com/thank78/posts/630689647078714
但我對這種現象感到疑惑。
我認知的處理Big Data核心能力,是一些資料探勘、機器學習相關的演算法,
以及相關應用(例如挖掘特定領域的資訊)。
Hadoop是一個分散檔案系統的軟體工具,或許符合"Big Data"字面上的意義,
但我們都知道data無用,information才有用,
因此這個時代談的"Big Data"大多含有"挖掘、自動智慧"等意義,
而不是單純的資料管理。
更何況論文研究出來的知識,不應該綁定在特定工具。
或許研究者本人只熟悉Hadoop或某種套裝軟體,這難免的。
但研究貢獻、他人欲重現研究過程等,都不應該綁死在特定軟體工具上。
或許因為我非資訊本科系、也不熟資料庫,
請問,是不是我對 Hadoop 或 Big Data 有什麼誤解?
為什麼 Big Data 的核心能力會是某種工具,而不是方法?