读取大文件(Java堆Space)
Read large file (Java Heap Space)
我想读取 CSV 文件,从每一行创建对象,然后将这些对象保存到数据库中。
当我从我的文件中读取所有行,并将所有对象存储在 ArrayList 中时,我得到 Java 堆 Space 错误。
我试图在读取后立即保存每条记录,但是通过Hibernate方法save()保存记录需要很多时间。
我还尝试检查我的 arrayList 的大小并在该大小等于 100k 时保存数据(代码的注释部分)。
问题:有什么方法可以部分读取文件或更好的方法将数据存储在 Java 中?
String[] colNames;
String[] values;
String line;
Map<Object1, Object1> newObject1Objects = new HashMap<Object1, Object1>();
Map<Object1, Integer> objIdMap = objDao.createObjIdMap();
StringBuilder raportBuilder = new StringBuilder();
Long lineCounter = 1L;
BufferedReader reader = new BufferedReader(new InputStreamReader(
new FileInputStream(filename), "UTF-8"));
colNames = reader.readLine().split(";");
int columnLength = colNames.length;
while ((line = reader.readLine()) != null) {
lineCounter++;
line = line.replace("\"", "").replace("=", "");
values = line.split(";", columnLength);
// Object1
Object1 object1 = createObject1Object(values);
if (objIdMap.containsKey(object1)) {
object1.setObjId(objIdMap.get(object1));
} else if (newObject1Objects.containsKey(object1)) {
object1 = newObject1Objects.get(object1);
} else {
newObject1Objects.put(object1, object1);
}
// ==============================================
// Object2
Object2 object2 = createObject2Object(values, object1,
lineCounter, raportBuilder);
listOfObject2.add(object2);
/*
logger.error("listOfObject2.size():"+listOfObject2.size());
if(listOfObject2.size() % 100000 == 0){
object2Dao.performImportOperation(listOfObject2);
listOfObject2.clear();
}
*/
}
object2Dao.performImportOperation(listOfObject2);
如果您想处理非常大的文件,增加最大堆大小对您没有帮助。你的朋友是 batching
。
Hibernate 不隐式使用 JDBC 批处理,每个 INSERT 和 UPDATE 语句都是单独执行的。阅读 "How do you enable batch inserts in hibernate?" 以获取有关如何启用它的信息。
注意 IDENTITY 生成器,如 it disables batch fetching。
我想读取 CSV 文件,从每一行创建对象,然后将这些对象保存到数据库中。 当我从我的文件中读取所有行,并将所有对象存储在 ArrayList 中时,我得到 Java 堆 Space 错误。 我试图在读取后立即保存每条记录,但是通过Hibernate方法save()保存记录需要很多时间。
我还尝试检查我的 arrayList 的大小并在该大小等于 100k 时保存数据(代码的注释部分)。
问题:有什么方法可以部分读取文件或更好的方法将数据存储在 Java 中?
String[] colNames;
String[] values;
String line;
Map<Object1, Object1> newObject1Objects = new HashMap<Object1, Object1>();
Map<Object1, Integer> objIdMap = objDao.createObjIdMap();
StringBuilder raportBuilder = new StringBuilder();
Long lineCounter = 1L;
BufferedReader reader = new BufferedReader(new InputStreamReader(
new FileInputStream(filename), "UTF-8"));
colNames = reader.readLine().split(";");
int columnLength = colNames.length;
while ((line = reader.readLine()) != null) {
lineCounter++;
line = line.replace("\"", "").replace("=", "");
values = line.split(";", columnLength);
// Object1
Object1 object1 = createObject1Object(values);
if (objIdMap.containsKey(object1)) {
object1.setObjId(objIdMap.get(object1));
} else if (newObject1Objects.containsKey(object1)) {
object1 = newObject1Objects.get(object1);
} else {
newObject1Objects.put(object1, object1);
}
// ==============================================
// Object2
Object2 object2 = createObject2Object(values, object1,
lineCounter, raportBuilder);
listOfObject2.add(object2);
/*
logger.error("listOfObject2.size():"+listOfObject2.size());
if(listOfObject2.size() % 100000 == 0){
object2Dao.performImportOperation(listOfObject2);
listOfObject2.clear();
}
*/
}
object2Dao.performImportOperation(listOfObject2);
如果您想处理非常大的文件,增加最大堆大小对您没有帮助。你的朋友是 batching
。
Hibernate 不隐式使用 JDBC 批处理,每个 INSERT 和 UPDATE 语句都是单独执行的。阅读 "How do you enable batch inserts in hibernate?" 以获取有关如何启用它的信息。
注意 IDENTITY 生成器,如 it disables batch fetching。