Merge branch 'master' of https://github.com/syuilo/misskey
This commit is contained in:
commit
12d815dc42
|
@ -22,6 +22,7 @@
|
||||||
"format": "gulp format"
|
"format": "gulp format"
|
||||||
},
|
},
|
||||||
"devDependencies": {
|
"devDependencies": {
|
||||||
|
"@prezzemolo/zip": "0.0.3",
|
||||||
"@types/bcryptjs": "2.4.1",
|
"@types/bcryptjs": "2.4.1",
|
||||||
"@types/body-parser": "1.16.7",
|
"@types/body-parser": "1.16.7",
|
||||||
"@types/chai": "4.0.4",
|
"@types/chai": "4.0.4",
|
||||||
|
|
|
@ -19,12 +19,32 @@ async function applyNewChange (doc) {
|
||||||
}
|
}
|
||||||
|
|
||||||
async function main () {
|
async function main () {
|
||||||
const oldTypeDocs = await DriveFile.find({
|
const query = {
|
||||||
'metadata.name': {
|
'metadata.name': {
|
||||||
$exists: true
|
$exists: true
|
||||||
}
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
const count = await DriveFile.count(query)
|
||||||
|
|
||||||
|
const dop = Number.parseInt(process.argv[2]) || 5
|
||||||
|
const idop = ((count - (count % dop)) / dop) + 1
|
||||||
|
|
||||||
|
return zip(
|
||||||
|
1,
|
||||||
|
async (time) => {
|
||||||
|
console.log(`${time} / ${idop}`)
|
||||||
|
const doc = await db.get('drive_files').find(query, {
|
||||||
|
limit: dop, skip: time * dop
|
||||||
|
})
|
||||||
|
return Promise.all(doc.map(applyNewChange))
|
||||||
|
},
|
||||||
|
idop
|
||||||
|
).then(a => {
|
||||||
|
const rv = []
|
||||||
|
a.forEach(e => rv.push(...e))
|
||||||
|
return rv
|
||||||
})
|
})
|
||||||
return await Promise.all(oldTypeDocs.map(applyNewChange))
|
|
||||||
}
|
}
|
||||||
|
|
||||||
main().then(console.dir).catch(console.error)
|
main().then(console.dir).catch(console.error)
|
||||||
|
|
|
@ -1,6 +1,7 @@
|
||||||
// for Node.js interpret
|
// for Node.js interpret
|
||||||
|
|
||||||
const { default: DriveFile } = require('../../built/api/models/drive-file')
|
const { default: DriveFile } = require('../../built/api/models/drive-file')
|
||||||
|
const { default: zip } = require('@prezzemolo/zip')
|
||||||
|
|
||||||
const migrate = async (doc) => {
|
const migrate = async (doc) => {
|
||||||
const result = await DriveFile.update(doc._id, {
|
const result = await DriveFile.update(doc._id, {
|
||||||
|
@ -15,30 +16,32 @@ const migrate = async (doc) => {
|
||||||
}
|
}
|
||||||
|
|
||||||
async function main() {
|
async function main() {
|
||||||
let i = 0;
|
const query = {
|
||||||
|
'metadata.type': {
|
||||||
const count = await DriveFile.count({});
|
$exists: true
|
||||||
|
|
||||||
const iterate = async () => {
|
|
||||||
if (i == count) return true;
|
|
||||||
console.log(`${i} / ${count}`);
|
|
||||||
const doc = (await DriveFile.find({}, { limit: 1, skip: i }))[0]
|
|
||||||
const res = await migrate(doc);
|
|
||||||
if (!res) {
|
|
||||||
return false;
|
|
||||||
} else {
|
|
||||||
i++
|
|
||||||
return await iterate();
|
|
||||||
}
|
}
|
||||||
}
|
}
|
||||||
|
|
||||||
const res = await iterate();
|
const count = await DriveFile.count(query);
|
||||||
|
|
||||||
if (res) {
|
const dop = Number.parseInt(process.argv[2]) || 5
|
||||||
return 'ok';
|
const idop = ((count - (count % dop)) / dop) + 1
|
||||||
} else {
|
|
||||||
throw 'something happened';
|
return zip(
|
||||||
}
|
1,
|
||||||
|
async (time) => {
|
||||||
|
console.log(`${time} / ${idop}`)
|
||||||
|
const doc = await db.get('drive_files').find(query, {
|
||||||
|
limit: dop, skip: time * dop
|
||||||
|
})
|
||||||
|
return Promise.all(doc.map(migrate))
|
||||||
|
},
|
||||||
|
idop
|
||||||
|
).then(a => {
|
||||||
|
const rv = []
|
||||||
|
a.forEach(e => rv.push(...e))
|
||||||
|
return rv
|
||||||
|
})
|
||||||
}
|
}
|
||||||
|
|
||||||
main().then(console.dir).catch(console.error)
|
main().then(console.dir).catch(console.error)
|
||||||
|
|
|
@ -3,6 +3,7 @@
|
||||||
const { default: db } = require('../../built/db/mongodb')
|
const { default: db } = require('../../built/db/mongodb')
|
||||||
const { default: DriveFile, getGridFSBucket } = require('../../built/api/models/drive-file')
|
const { default: DriveFile, getGridFSBucket } = require('../../built/api/models/drive-file')
|
||||||
const { Duplex } = require('stream')
|
const { Duplex } = require('stream')
|
||||||
|
const { default: zip } = require('@prezzemolo/zip')
|
||||||
|
|
||||||
const writeToGridFS = (bucket, buffer, ...rest) => new Promise((resolve, reject) => {
|
const writeToGridFS = (bucket, buffer, ...rest) => new Promise((resolve, reject) => {
|
||||||
const writeStream = bucket.openUploadStreamWithId(...rest)
|
const writeStream = bucket.openUploadStreamWithId(...rest)
|
||||||
|
@ -45,30 +46,26 @@ const migrateToGridFS = async (doc) => {
|
||||||
}
|
}
|
||||||
|
|
||||||
async function main() {
|
async function main() {
|
||||||
let i = 0;
|
|
||||||
|
|
||||||
const count = await db.get('drive_files').count({});
|
const count = await db.get('drive_files').count({});
|
||||||
|
|
||||||
const iterate = async () => {
|
console.log(`there are ${count} files.`)
|
||||||
if (i == count) return true;
|
|
||||||
console.log(`${i} / ${count}`);
|
|
||||||
const doc = (await db.get('drive_files').find({}, { limit: 1, skip: i }))[0]
|
|
||||||
const res = await migrateToGridFS(doc);
|
|
||||||
if (!res) {
|
|
||||||
return false;
|
|
||||||
} else {
|
|
||||||
i++
|
|
||||||
return await iterate();
|
|
||||||
}
|
|
||||||
}
|
|
||||||
|
|
||||||
const res = await iterate();
|
const dop = Number.parseInt(process.argv[2]) || 5
|
||||||
|
const idop = ((count - (count % dop)) / dop) + 1
|
||||||
|
|
||||||
if (res) {
|
return zip(
|
||||||
return 'ok';
|
1,
|
||||||
} else {
|
async (time) => {
|
||||||
throw 'something happened';
|
console.log(`${time} / ${idop}`)
|
||||||
}
|
const doc = await db.get('drive_files').find({}, { limit: dop, skip: time * dop })
|
||||||
|
return Promise.all(doc.map(migrateToGridFS))
|
||||||
|
},
|
||||||
|
idop
|
||||||
|
).then(a => {
|
||||||
|
const rv = []
|
||||||
|
a.forEach(e => rv.push(...e))
|
||||||
|
return rv
|
||||||
|
})
|
||||||
}
|
}
|
||||||
|
|
||||||
main().then(console.dir).catch(console.error)
|
main().then(console.dir).catch(console.error)
|
||||||
|
|
Loading…
Reference in New Issue