Apr 03, 2023
Una nuova biografia
Scientific Reports volume 13,
Rapporti scientifici volume 13, numero articolo: 8775 (2023) Citare questo articolo
2297 accessi
Dettagli sulle metriche
Questo articolo introduce un nuovo algoritmo metaeuristico di ispirazione biologica chiamato Walrus Optimization Algorithm (WaOA), che imita i comportamenti dei trichechi in natura. Le ispirazioni fondamentali impiegate nella progettazione di WaOA sono il processo di alimentazione, migrazione, fuga e lotta ai predatori. Le fasi di implementazione del WaOA sono modellate matematicamente in tre fasi: esplorazione, migrazione e sfruttamento. Sessantotto funzioni di benchmark standard costituite da unimodale, multimodale ad alta dimensione, multimodale a dimensione fissa, suite di test CEC 2015 e suite di test CEC 2017 vengono impiegate per valutare le prestazioni WaOA nelle applicazioni di ottimizzazione. I risultati di ottimizzazione delle funzioni unimodali indicano la capacità di sfruttamento di WaOA, i risultati di ottimizzazione delle funzioni multimodali indicano la capacità di esplorazione di WaOA e i risultati di ottimizzazione delle suite di test CEC 2015 e CEC 2017 indicano l'elevata capacità di WaOA nel bilanciare esplorazione e sfruttamento durante il processo di ricerca. Le prestazioni di WaOA vengono confrontate con i risultati di dieci noti algoritmi metaeuristici. I risultati delle simulazioni dimostrano che WaOA, grazie alla sua eccellente capacità di bilanciare esplorazione e sfruttamento e alla sua capacità di fornire risultati superiori per la maggior parte delle funzioni di riferimento, ha mostrato prestazioni notevolmente competitive e superiori rispetto ad altri algoritmi comparabili. Inoltre, l'uso di WaOA nell'affrontare quattro problemi di ingegneria della progettazione e ventidue problemi di ottimizzazione del mondo reale della suite di test CEC 2011 dimostra l'apparente efficacia di WaOA nelle applicazioni del mondo reale. I codici MATLAB di WaOA sono disponibili in https://uk.mathworks.com/matlabcentral/profile/authors/13903104.
Recentemente, molti problemi di ottimizzazione nel campo della scienza, dell'ingegneria, dell'industria e della tecnologia devono essere risolti utilizzando tecniche di ottimizzazione. Da un punto di vista matematico, le variabili decisionali, i vincoli e le funzioni obiettivo sono le tre parti principali della modellazione di un problema di ottimizzazione. Lo scopo dell'ottimizzazione è quello di quantificare le variabili decisionali del problema in modo che, rispettando i vincoli, porti a raggiungere il valore minimo (problemi di minimizzazione) o massimo (problemi di massimizzazione) per la funzione obiettivo1. Le tecniche applicate nella risoluzione dei problemi di ottimizzazione rientrano negli approcci deterministici e stocastici. Per scegliere la tecnica adatta per risolvere un problema di ottimizzazione, un utente ha bisogno di informazioni complete sul confronto delle tecniche di risoluzione dei problemi. Al contrario, spesso è necessario qualcosa di più delle informazioni a disposizione dell'utente. Gli approcci stocastici, che si basano principalmente sulla ricerca casuale nello spazio di risoluzione dei problemi, possono gestire i problemi della scatola nera più semplicemente di molti algoritmi deterministici. Questi approcci sono adatti anche a problemi in cui le valutazioni delle funzioni sono corrotte dal rumore. Ciascun approccio deterministico e stocastico presenta diversi vantaggi e, in generale, nessuno può essere considerato superiore. Maggiori informazioni e un confronto dettagliato tra approcci deterministici e stocastici sono forniti nel libro di Krasov2.
Essendo uno degli approcci stocastici più utilizzati, gli algoritmi metaeuristici, utilizzando operatori stocastici, concetti di prova ed errore e ricerca stocastica, possono fornire soluzioni appropriate ai problemi di ottimizzazione senza richiedere informazioni derivate dalla funzione obiettivo. La semplicità delle idee, la facile implementazione, l'indipendenza dal tipo di problema e l'assenza di necessità di un processo di derivazione sono tra i vantaggi che hanno portato alla popolarità e alla pervasività degli algoritmi metaeuristici tra i ricercatori3. Il processo di ottimizzazione negli algoritmi metaeuristici inizia con la generazione casuale di diverse soluzioni ammissibili iniziali nello spazio di ricerca del problema. Quindi, in un processo iterativo, basato sull’efficacia dei passaggi dell’algoritmo, queste soluzioni iniziali vengono migliorate. Infine, la migliore soluzione trovata durante l'implementazione dell'algoritmo viene presentata come soluzione al problema4. Tuttavia, nessuno degli algoritmi metaeuristici garantisce di essere in grado di fornire la soluzione globale ottimale. Questa insufficienza è dovuta alla natura della ricerca casuale in questi tipi di approcci di ottimizzazione. Pertanto, le soluzioni derivate da algoritmi metaeuristici sono note come soluzioni quasi-ottimali5.