
对于spark
spark(火花)是一个用于测试游戏性能,查看性能瓶颈和卡顿的工具。当你遇到游戏卡或者延迟大等情况,可以使用spark。
在0.5.3(疑似?)版本之后,gto包体内已删除spark。 (/gtocore spark这是遗留指令,如果不装spark是无效的)
spark在部分内核上无法正常工作,例如 危险!MC模组导致死机:罪魁祸首居然是这一行代码……_哔哩哔哩_bilibili
spark 使用 的async-profiler 与部分linux内核不兼容
最接近的 spark issue 是这两个:
#512 Crash using spark-1.10.53 (Forge) on Alpine 3.18 with openjdk21-jre-headless 这是 Forge + 1.20.1 + spark 1.10.53 + JDK 21 下直接 native crash。虽然对方是 Alpine/aarch64,不是你的 Debian/amd64,但性质一样,都是 spark 的 native profiler 在宿主环境里直接炸。
#535 Spark 1.20.1 Forge-47.4.10 (spark version 1.10.53) incompatible with Java 25 这是 Forge 1.20.1 + spark 1.10.53 + Java 25 不兼容,和你前一阶段的现象一致。
另外还有:
所以至少可以确认两点:
这不是你单独一家的奇怪现象 spark 1.10.53 在 1.20.1、Forge、Linux、不同 JDK 组合下,确实已经有人报过 profiler 相关崩溃/不可用问题。
你这里的问题不只是 Java 25 你已经实测了:
JDK 25 会崩
JDK 21 还是崩 所以现在更像是 spark 1.10.53 的 native profiler 和你这台 Linux 容器环境组合不兼容,不只是 Java 主版本问题。
我也看了 async-profiler 上游 release:
这里能看到一些很 relevant 的修复方向:
v4.2: Re-implement SafeAccess crash protection
v4.3: Harden crash protection in StackWalker
v4.3: Support compilation on modern JDKs
v4.3: Workaround for the kernel PERF_EVENT_IOC_REFRESH bug
v4.3: Fix races related to VM termination