大家好!我是 2魚,歡迎來到鐵人賽第九天的資料處理小教室!還記得昨天我們學會了如何使用 MongoDB Compass 手動輸入資料嗎?今天,我們要面對一個更大的挑戰:如何處理大量的專案資料。畢竟,我們的鸚鵡食堂可不是只有幾筆資料那麼簡單!別擔心,我會和大家分享一個超級實用的技巧,讓我們能夠輕鬆地整理和匯入大量資料。準備好要成為資料管理高手了嗎?Let’s dive in!
房東不給養鸚鵡 - 那就用 Nuxt + Express + MongoDB 30 天寫一個全端鸚鵡專案。
挑戰人生第一次鐵人賽,就來個佛心分享 side project,從專案發想、規劃、設計、資料庫、開發到部署,技術使用 Nuxt 3、Tailwind CSS、Pinia、Axios、Express、MongoDB,製作一個前後端分離的鸚鵡專案,功能主要介紹食物計算機和聯絡我們,希望可以讓更多人瞭解專案的完整流程 ✨
IT 全文章連結如何整理專案資料
昨天,我使用 Compass 手動將部分資料鍵入資料庫中,但我們專案所需的資料量更為龐大,像是鸚鵡能食用的食物、鸚鵡種類、醫療資訊等等的。為了快速彙整資料,我決定使用 AI 來幫助我整理和擴充資料量。
整理資料步驟:
初步收集資料:
- 首先,AI 可能會將資料以表格(如 Excel)的形式提供。這時候,我會先把資料整理到 Excel 中,並隨著資料量的增加,不斷檢查資料是否需要進一步調整或修改。
- 首先,AI 可能會將資料以表格(如 Excel)的形式提供。這時候,我會先把資料整理到 Excel 中,並隨著資料量的增加,不斷檢查資料是否需要進一步調整或修改。
資料格式轉換:
收集到足夠的資料後,我會將這些資料複製並請 AI 幫忙將其整理成 JSON 格式,這樣就能方便地匯入 MongoDB 中使用。
在 VS Code 中存檔:
我會打開 VS Code,按下快捷鍵
cmd + N
新增一個文字檔案。
接著,將整理好的 JSON 資料貼上到這個檔案中。
最後,將這個檔案保存到一個我可以輕鬆找到的位置。
匯入資料到 MongoDB:
在打開 Compass 之後,我會使用匯入功能將剛剛的 JSON 檔案匯入資料庫。這次我選擇匯入鸚鵡能食用的食物資料,因此我會先在資料庫中新增一個集合(collection)。
然後,我會將剛才保存的 JSON 檔案匯入到這個新的集合中。
這裡提供了一些範例的資料,大家可以將資料存到 food.json 文件,跟著一起動手試試看:1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74[
{
"name": "向日葵籽",
"calories_per_100g": 584,
"protein_per_100g": 20.78,
"fat_per_100g": 51.46,
"carbohydrates_per_100g": 20,
"consumption_note": "生食",
"daily_max_recommended_intake_g": "5-10"
},
{
"name": "南瓜籽",
"calories_per_100g": 559,
"protein_per_100g": 30.23,
"fat_per_100g": 49.05,
"carbohydrates_per_100g": 10.71,
"consumption_note": "生食",
"daily_max_recommended_intake_g": "5-10"
},
{
"name": "蘋果",
"calories_per_100g": 52,
"protein_per_100g": 0.26,
"fat_per_100g": 0.17,
"carbohydrates_per_100g": 13.81,
"consumption_note": "生食,去核",
"daily_max_recommended_intake_g": "10-20"
},
{
"name": "胡蘿蔔",
"calories_per_100g": 41,
"protein_per_100g": 0.93,
"fat_per_100g": 0.24,
"carbohydrates_per_100g": 9.58,
"consumption_note": "生食或煮熟食用",
"daily_max_recommended_intake_g": "10-15"
},
{
"name": "杏仁",
"calories_per_100g": 579,
"protein_per_100g": 21.15,
"fat_per_100g": 49.93,
"carbohydrates_per_100g": 21.55,
"consumption_note": "生食或輕微烘烤後食用",
"daily_max_recommended_intake_g": "3-5"
},
{
"name": "花生",
"calories_per_100g": 567,
"protein_per_100g": 25.8,
"fat_per_100g": 49.24,
"carbohydrates_per_100g": 16.13,
"consumption_note": "生食或輕微烘烤後食用",
"daily_max_recommended_intake_g": "5-10"
},
{
"name": "核桃",
"calories_per_100g": 654,
"protein_per_100g": 15.23,
"fat_per_100g": 65.21,
"carbohydrates_per_100g": 13.71,
"consumption_note": "生食或輕微烘烤後食用",
"daily_max_recommended_intake_g": "5-10"
},
{
"name": "莓果類",
"calories_per_100g": 43,
"protein_per_100g": 0.7,
"fat_per_100g": 0.33,
"carbohydrates_per_100g": 10.1,
"consumption_note": "生食(藍莓、草莓等)",
"daily_max_recommended_intake_g": "10-20"
}
]成功匯入資料後,資料庫就會顯示這些資料,方便進行後續操作。
結語
哇,今天我們學到了一個超級實用的技巧呢!透過結合 AI 的強大處理能力和我們對資料的精細把控,我們不僅能快速擴充資料量,還能保持資料的一致性與準確性。這個方法真的是處理大量資料時的救星啊!
想想看,這個流程不只適用於我們的鸚鵡食堂專案,在未來處理任何需要大量資料的專案時都能派上用場。無論是開發過程中的資料蒐集,還是後續的數據處理與分析,這個方法都能讓我們事半功倍。
如果你正在進行類似的專案,或是正為龐大的資料整理而煩惱,真的很推薦你試試看這個流程。相信我,它會讓你的工作變得更加輕鬆高效!
大家有沒有自己處理大量資料的秘訣呢?歡迎在下方留言分享喔!我們一起學習、一起成長。明天見啦,掰掰~
希望這篇文章有幫助到你,謝謝你的觀看,若有想看的系列也歡迎告訴我 😉