feat(webstatement): implement batch processing in job data handling
- Menambahkan konstanta `CHUNK_SIZE` dengan nilai 1000 untuk memungkinkan pemrosesan data dalam bentuk batch guna mengurangi penggunaan memori. - Memperkenalkan atribut batch baru (`atmTransactionBatch`, `captureBatch`, `transferBatch`, dan `tellerBatch`) untuk menyimpan data sementara sebelum disimpan ke database. - Mengganti metode penyimpanan langsung dengan menambahkan data ke batch melalui fungsi baru `addToBatch()`. - Menambahkan fungsi `saveBatch()` untuk melakukan operasi penyimpanan data dalam jumlah besar (bulk) menggunakan metode `upsert`. - Memastikan batch akan di-reset setelah penyimpanan, termasuk dalam kasus kegagalan, untuk mencegah reprocessing catatan yang gagal. - Menambahkan logging tambahan untuk mencatat jumlah batch (chunk) yang telah selesai diproses, memberikan wawasan lebih dalam proses. - Menambahkan validasi jumlah kolom pada setiap baris data, logging peringatan jika data tidak sesuai, dan mencatat jumlah kesalahan (`errorCount`). - Secara otomatis menambahkan atribut timestamp (`created_at` dan `updated_at`) pada setiap data sebelum dimasukkan ke dalam batch untuk pelacakan waktu. - Memodifikasi log error untuk menangani kesalahan pada level yang lebih spesifik, seperti pada baris tertentu dalam file yang diproses. - Mengoptimalkan pemrosesan data pada job: - `ProcessAtmTransactionJob` untuk data transaksi ATM. - `ProcessDataCaptureDataJob` untuk data capture. - `ProcessFundsTransferDataJob` untuk data transfer dana. - `ProcessTellerDataJob` untuk data teller. - Meningkatkan efisiensi dan skalabilitas dengan menyisipkan data secara bulk, mengurangi overhead database, dan menghindari pengolahan data secara satu per satu.
This commit is contained in:
@@ -20,10 +20,12 @@
|
||||
private const MAX_EXECUTION_TIME = 86400; // 24 hours in seconds
|
||||
private const FILENAME = 'ST.FUNDS.TRANSFER.csv';
|
||||
private const DISK_NAME = 'sftpStatement';
|
||||
private const CHUNK_SIZE = 1000; // Process data in chunks to reduce memory usage
|
||||
|
||||
private string $period = '';
|
||||
private int $processedCount = 0;
|
||||
private int $errorCount = 0;
|
||||
private array $transferBatch = [];
|
||||
|
||||
/**
|
||||
* Create a new job instance.
|
||||
@@ -61,6 +63,7 @@
|
||||
set_time_limit(self::MAX_EXECUTION_TIME);
|
||||
$this->processedCount = 0;
|
||||
$this->errorCount = 0;
|
||||
$this->transferBatch = [];
|
||||
}
|
||||
|
||||
private function processPeriod()
|
||||
@@ -111,10 +114,23 @@
|
||||
|
||||
$headers = (new TempFundsTransfer())->getFillable();
|
||||
$rowCount = 0;
|
||||
$chunkCount = 0;
|
||||
|
||||
while (($row = fgetcsv($handle, 0, self::CSV_DELIMITER)) !== false) {
|
||||
$rowCount++;
|
||||
$this->processRow($row, $headers, $rowCount, $filePath);
|
||||
|
||||
// Process in chunks to avoid memory issues
|
||||
if (count($this->transferBatch) >= self::CHUNK_SIZE) {
|
||||
$this->saveBatch();
|
||||
$chunkCount++;
|
||||
Log::info("Processed chunk $chunkCount ({$this->processedCount} records so far)");
|
||||
}
|
||||
}
|
||||
|
||||
// Process any remaining records
|
||||
if (!empty($this->transferBatch)) {
|
||||
$this->saveBatch();
|
||||
}
|
||||
|
||||
fclose($handle);
|
||||
@@ -136,18 +152,24 @@
|
||||
}
|
||||
|
||||
$data = array_combine($headers, $row);
|
||||
$this->saveRecord($data, $rowCount, $filePath);
|
||||
$this->addToBatch($data, $rowCount, $filePath);
|
||||
}
|
||||
|
||||
private function saveRecord(array $data, int $rowCount, string $filePath)
|
||||
/**
|
||||
* Add record to batch instead of saving immediately
|
||||
*/
|
||||
private function addToBatch(array $data, int $rowCount, string $filePath)
|
||||
: void
|
||||
{
|
||||
try {
|
||||
if (isset($data['_id']) && $data['_id'] !== '_id') {
|
||||
TempFundsTransfer::updateOrCreate(
|
||||
['_id' => $data['_id']],
|
||||
$data
|
||||
);
|
||||
// Add timestamp fields
|
||||
$now = now();
|
||||
$data['created_at'] = $now;
|
||||
$data['updated_at'] = $now;
|
||||
|
||||
// Add to transfer batch
|
||||
$this->transferBatch[] = $data;
|
||||
$this->processedCount++;
|
||||
}
|
||||
} catch (Exception $e) {
|
||||
@@ -156,6 +178,32 @@
|
||||
}
|
||||
}
|
||||
|
||||
/**
|
||||
* Save batched records to the database
|
||||
*/
|
||||
private function saveBatch()
|
||||
: void
|
||||
{
|
||||
try {
|
||||
if (!empty($this->transferBatch)) {
|
||||
// Bulk insert/update funds transfers
|
||||
TempFundsTransfer::upsert(
|
||||
$this->transferBatch,
|
||||
['_id'], // Unique key
|
||||
array_diff((new TempFundsTransfer())->getFillable(), ['_id']) // Update columns
|
||||
);
|
||||
|
||||
// Reset transfer batch after processing
|
||||
$this->transferBatch = [];
|
||||
}
|
||||
} catch (Exception $e) {
|
||||
Log::error("Error in saveBatch: " . $e->getMessage());
|
||||
$this->errorCount += count($this->transferBatch);
|
||||
// Reset batch even if there's an error to prevent reprocessing the same failed records
|
||||
$this->transferBatch = [];
|
||||
}
|
||||
}
|
||||
|
||||
private function cleanup(string $tempFilePath)
|
||||
: void
|
||||
{
|
||||
|
||||
Reference in New Issue
Block a user