解码大流 JSON

Decode large stream JSON

我有一个巨大的 JSON 数组存储在文件中 ("file.json") 我需要遍历数组并对每个元素进行一些操作。

err = json.Unmarshal(dat, &all_data)

导致内存不足 - 我猜是因为它首先将所有内容加载到内存中。

有没有办法逐个元素地流式传输 JSON?

因此,正如评论者所建议的那样,您可以使用 "encoding/json" 的流 API 一次读取一个字符串:

r := ... // get some io.Reader (e.g. open the big array file)
d := json.NewDecoder(r)
// read "["
d.Token()
// read strings one by one
for d.More() {
    s, _ := d.Token()
    // do something with s which is the newly read string
    fmt.Printf("read %q\n", s)
}
// (optionally) read "]"
d.Token()

请注意,为简单起见,我将需要实施的错误处理留了下来。

encoding/json documentation 中有这样的例子:

package main

import (
    "encoding/json"
    "fmt"
    "log"
    "strings"
)

func main() {
    const jsonStream = `
                [
                    {"Name": "Ed", "Text": "Knock knock."},
                    {"Name": "Sam", "Text": "Who's there?"},
                    {"Name": "Ed", "Text": "Go fmt."},
                    {"Name": "Sam", "Text": "Go fmt who?"},
                    {"Name": "Ed", "Text": "Go fmt yourself!"}
                ]
            `
    type Message struct {
        Name, Text string
    }
    dec := json.NewDecoder(strings.NewReader(jsonStream))

    // read open bracket
    t, err := dec.Token()
    if err != nil {
        log.Fatal(err)
    }
    fmt.Printf("%T: %v\n", t, t)

    // while the array contains values
    for dec.More() {
        var m Message
        // decode an array value (Message)
        err := dec.Decode(&m)
        if err != nil {
            log.Fatal(err)
        }

        fmt.Printf("%v: %v\n", m.Name, m.Text)
    }

    // read closing bracket
    t, err = dec.Token()
    if err != nil {
        log.Fatal(err)
    }
    fmt.Printf("%T: %v\n", t, t)

}