Java HSQLDB - Bulk Batch Insert: OutOfMemoryError: GC overhead limit exceeded

Java HSQLDB - Bulk Batch Insert: OutOfMemoryError: GC overhead limit exceeded

我在 ArrayList 中有 5700 万个字符串,我想将其插入到 HSQLDB 中。但我总是 运行 内存不足,并在此过程中出现 "java.lang.OutOfMemoryError: Java heap space""OutOfMemoryError: GC overhead limit exceeded" 错误。

我尝试了建议的任何解决方案 here

        DateFormat df = new SimpleDateFormat("dd.MM.yyyy HH:mm:ss");
        String now = df.format(new Date());
        long iteration = 0;
        int i, size, totalSize;
        size = totalSize = values.size();
        PreparedStatement statement = connection.prepareStatement("INSERT INTO primes (P_VALUE, DATE_FOUND) VALUES (?, ?);");
        while (size > 0) {
            for (i = 0; i < 1000000 && i < size; i++) {
                iteration++;
                statement.setString(1, values.get(i));
                statement.setString(2, now);
                statement.addBatch();
            }
            values = values.subList(i, size);
            size = values.size();
            statement.executeBatch();
        }
        statement.closeOnCompletion();

我很确定问题与 Java 语句有关,因为更改 for 循环条件不会改变它。

我试过了

看起来你正在使用内存表,当你插入很多行时内存用完了。

尝试使用基于文件的数据库创建缓存 TABLE。然后您可以尝试不同的批量大小。

您还必须在每批之后提交。所有插入的行都保存在内存中,直到您提交。