使用 Go 处理大型 CSV
想法是:
给定一个大型虚拟 csv(100 万行)包含客户数据样本,并按照以下目标进行处理:
从 csv 中提取数据 计算有多少数据/行 对每个城市的客户数量进行分组 按客户数量从高到低对城市进行排序 计算处理时间
客户的 csv 示例可以在此处下载 https://github.com/datablist/sample-csv-files
加载和提取数据
显然 go 有用于 csv 处理的标准库。我们不再需要第三方依赖来解决我们的问题,这很好。所以解决方案非常简单:
// open the file to a reader interface c, err := os.open("../data/customers-1000000.csv") if err != nil { log.fatal(err) } defer c.close() // load file reader into csv reader // need to set fieldsperrecord to -1 to skip fields checking r := csv.newreader(c) r.fieldsperrecord = -1 r.reuserecord = true records, err := r.readall() if err != nil { log.fatal(err) }
- 从给定路径打开文件
- 将打开的文件加载到 csv 阅读器
- 将所有提取的 csv 记录/行值保存到记录切片中以供以后处理
fieldsperrecord 设置为 -1,因为我想跳过行上的字段检查,因为每种格式的字段或列数可能不同
在此状态下,我们已经能够从 csv 加载和提取所有数据,并准备好进入下一个处理状态。我们还可以使用函数 len(records) 知道 csv 中有多少行。
将总客户分组到每个城市
现在我们可以迭代记录并创建包含城市名称和总客户的地图,如下所示:
["jakarta": 10, "bandung": 200, ...]
csv 行中的城市数据位于第 7 个索引,代码如下所示
// create hashmap to populate city with total customers based on the csv data rows // hashmap will looks like be ["city name": 100, ...] m := map[string]int{} for i, record := range records { // skip header row if i == 0 { continue } if _, found := m[record[6]]; found { m[record[6]]++ } else { m[record[6]] = 1 } }
如果城市地图不存在,则创建新地图并将客户总数设置为1。否则只需增加给定城市的总数。
现在我们的地图 m 包含城市的集合以及其中有多少客户。至此我们已经解决了每个城市有多少客户的分组问题。
对总客户数进行排序
我试图找到标准库中是否有任何函数可以对地图进行排序,但不幸的是我找不到它。排序仅适用于切片,因为我们可以根据索引位置重新排列数据顺序。所以,是的,让我们从当前的地图中切出一个切片。
// convert to slice first for sorting purposes dc := []citydistribution{} for k, v := range m { dc = append(dc, citydistribution{city: k, customercount: v}) }
现在我们如何按 customercount 从最高到最低排序?最常见的算法是使用气泡空头。虽然它不是最快的,但它可以完成这项工作。
冒泡排序是最简单的排序算法,如果相邻元素的顺序错误,它的工作原理是重复交换相邻元素。该算法不适合大型数据集,因为其平均和最坏情况时间复杂度相当高。
参考:https://www.geeksforgeeks.org/bubble-sort-algorithm/
使用我们的切片,它将循环数据并检查索引的下一个值,如果当前数据小于下一个索引,则交换它。详细算法可以在参考网站查看。
现在我们的排序过程可能是这样的
// use bubble sort dccount := len(dc) for i := 0; i < dccount; i++ { swapped := false for j := 0; j < dccount-i-1; j++ { if dc[j].customercount < dc[j+1].customercount { temp := dc[j] dc[j] = dc[j+1] dc[j+1] = temp swapped = true } } if !swapped { break } }
循环结束时,最后的切片将为我们提供排序后的数据。
计算处理时间
计算处理时间非常简单,我们获取执行程序主进程之前和之后的时间戳并计算差值。在 go 中,方法应该足够简单:
func main() { start := time.now() // start timing for processing time // the main process // ... duration := time.since(start) fmt.println("processing time (ms): ", duration.milliseconds()) }
结果
使用命令运行程序
go run main.go
打印出来的是行数、排序数据和处理时间。像下面这样:
正如 go 性能所预期的那样,它在 1 秒内处理了 100 万行 csv!
所有已完成的代码已发布在我的 github 存储库上:
https://github.com/didikz/csv-processing/tree/main/golang
经验教训
- go 中的 csv 处理已经在标准库中可用,无需使用第 3 方库
- 处理数据非常简单。面临的挑战是找出如何对数据进行排序,因为需要手动进行
想到什么?
我认为我当前的解决方案可能可以进一步优化,因为我循环提取了 csv 的所有记录来映射,如果我们检查 readall() 源,它还有循环来根据给定的文件读取器创建切片。这样,1 百万行可以为 1 百万数据生成 2 个循环,这不太好。
我想如果我可以直接从文件读取器读取数据,它只需要 1 个循环,因为我可以直接从中创建地图。除了记录切片将在其他地方使用,但在本例中不使用。
我还没有时间弄清楚,但我也认为如果我手动完成会有一些缺点:
- 可能需要处理更多解析过程中的错误
- 我不确定它会减少多少处理时间来考虑解决方法是否值得
编码快乐!
以上就是使用 Go 处理大型 CSV的详细内容,更多请关注硕下网其它相关文章!