- 准备初始和最终的文件夹
- /work/qan/qan/codes/vtstscripts/nebmake.pl ./initial/POSCAR ./final/POSCAR 5 #.pl脚本直接运行就行不用. +文件
- (base) [kluo@nova 90-te-neb-5-images]$ /work/qan/qan/codes/vtstscripts/nebmake.pl ./initial/POSCAR ./final/POSCAR 5
- filetype1: vasp5
- filetype2: vasp5
- OK, ALL SETUP HERE
- FOR LATER ANALYSIS, PUT OUTCARs IN FOLDERS 00 and 06 !!!
- 按提示将OUTCAR分别复制到00 06
- INCAR:SYSTEM=CdTe # Job description#NPAR=8GGA=PS #ISMEAR=0 # Tetrahedron method with Bloechl correctionsNELM=200 # Maximum number of SCF cyclesEDIFF=1.0E-05 # Convergence criteria for SCF EnergyPREC=Normal # Precision controlENCUT=350#ISPIN=1#IBRION=2 # CG Geom OptISIF=2 # Relax atoms and cellNSW=200EDIFFG=1.0E-03LWAVE=.FALSE. # !No wavefunction output file, too bigLCHARG=.FALSE. # !No charge density output file, too bigNWRITE=0NELMIN=6SIGMA=0.05ADDGRID=.TRUE.#ISYM=0ALGO=FAMIN=0.01##NEB calculation##IBRION=3NCORE=8LCLIMB=.TRUE.ICAHIN=0IMAGES=5POTIM=0.05IOPT=2SPRING=-5.0
- slurm: 在主文件夹下运行任务而不是 程序产生的子文件夹#!/bin/bash# Copy/paste this job script into a text file and submit with the command:# sbatch thefilename# job standard output will go to the file slurm-%j.out (where %j is the job ID)#SBATCH --constraint=intel#SBATCH --time=128:00:00 # walltime limit (HH:MM:SS)#SBATCH --nodes=4 # number of nodes#SBATCH --job-name="Mg"#SBATCH --partition nova,reserved,instruction,interactive ##scavenger#SBATCH --mem=0 # maximum memory per node#SBATCH --cpus-per-task=1#SBATCH --hint=compute_bound#SBATCH --ntasks=256#SBATCH --exclusive#SBATCH --exclude=nova22-4,nova21-38,nova18-huge-[1-3],nova18-gpu-[1-5],nova21-gpu-[1-15],nova22-gpu-[1-5]srun -n 256 /work/qan/codes/VASP/bin/vasp_neb > LOG
- 后续分析:
Google学习一下 脚本还在/work/qan/qan/codes/vtstscripts/
nebefs.pl
dpgen 推荐安装升级方法:删除之前工作目录的dpgen文件夹 Install from source code: git clone https://github.com/deepmodeling/dpgen && pip install ./dpgen 想收集TL的数据集且按化学成分分类:/work/qan/kluo/NaSPO/run/TransL dpgen collect ./ ./collect -p simplify.json -m 不起作用,只能用 param.json格式 所以单独新建文件夹,构造虚拟的 param.json其中初始数据集地址,直接复制最后一个train的input.json.再用 dpgen collect ./ ./collect -p param.json -m就可以收集初始的数据了,但是这时候没有分类,尽管dpgen collect -m 有这个功能但没有作用。 所以,构建虚拟的simplify任务,记住是精简过程,所以 "labeled" : true , "init_pick_number" : 0 , "iter_pick_number" : 0 , ..... "training_init_model" : false , 运行之后,第一步就得到了 所有的分类数据集。 Q: /work/qan/kluo/NaSPO/run 最近几轮的准确率上不去,猜测是数据集太大 232334 batch ,而每一代的学习步长 step 只有 50 万,以及不够了。所以出现了:一些模型的准确率一直上不去,就算修改上下限也没有改观。或者一些模型学好了,另一些模型就被遗忘了,很明显是学习步长不够了。 A: 解决办法如下:将现有数据收集分类,分拣出确实学习率低的重写单独重点学习。其次,以后用 dpgen 自动采样产生数据集的时候,时刻关注准确率的变化,一旦上不去了赶紧分家。 D: 1. 收集数据 a. ...
评论
发表评论