Hazelcast Hibernate CacheKey 大小
Hazelcast Hibernate CacheKey size
我们目前正在使用 Hazelcast 创建一个跨三个节点的集群,并使用 Hibernate 作为我们的数据库访问。现在我们注意到 Hazelcast 发送事件以更新 Hibernate 二级缓存的默认序列化需要 Hibernate 的 CacheKey 的完整序列化,在我们的例子中由于嵌入的键(3.8Kbytes)特别大。
我们想知道是否有一种方法可以通过网络发送最少量的数据并在接收节点上重建 CacheKey。在我们当前的实现中,我们发送了密钥、entityOrRoleName 和 tenantId,但在重建 CacheKey 的类型时遇到了困难。
关于如何做到这一点有什么建议吗? Hibernate 是否支持使用此数据重建 CacheKey(类型)?
实际上我们使用了一个特殊的 Hibernate4CacheKeySerializer。参见 https://github.com/hazelcast/hazelcast-hibernate/blob/master/hazelcast-hibernate4/src/main/java/com/hazelcast/hibernate/serialization/Hibernate4CacheKeySerializer.java。
这已经比 Java 序列化更有效了。
我们认为不可能提高效率。
我们目前正在使用 Hazelcast 创建一个跨三个节点的集群,并使用 Hibernate 作为我们的数据库访问。现在我们注意到 Hazelcast 发送事件以更新 Hibernate 二级缓存的默认序列化需要 Hibernate 的 CacheKey 的完整序列化,在我们的例子中由于嵌入的键(3.8Kbytes)特别大。
我们想知道是否有一种方法可以通过网络发送最少量的数据并在接收节点上重建 CacheKey。在我们当前的实现中,我们发送了密钥、entityOrRoleName 和 tenantId,但在重建 CacheKey 的类型时遇到了困难。
关于如何做到这一点有什么建议吗? Hibernate 是否支持使用此数据重建 CacheKey(类型)?
实际上我们使用了一个特殊的 Hibernate4CacheKeySerializer。参见 https://github.com/hazelcast/hazelcast-hibernate/blob/master/hazelcast-hibernate4/src/main/java/com/hazelcast/hibernate/serialization/Hibernate4CacheKeySerializer.java。
这已经比 Java 序列化更有效了。
我们认为不可能提高效率。