Gli ambienti hybrid cloud offrono alle aziende il meglio di due mondi, combinando risorse on premise e cloud per garantire flessibilità e scalabilità. Le organizzazioni possono migliorare ulteriormente la loro strategia di cloud ibrido con l'intelligenza artificiale (AI) e il machine learning (ML).
I modelli di IA e ML possono aiutare i team a prendere decisioni migliori fornendo informazioni dettagliate, ottimizzando le risorse e migliorando le prestazioni delle applicazioni. I modelli linguistici di grandi dimensioni (LLM) possono aiutare ad automatizzare i flussi di lavoro e ridurre la necessità di lavoro manuale. I modelli predittivi possono analizzare i modelli di utilizzo per ridurre i costi del cloud e allocare le risorse in modo più efficiente. Scopri come i team possono utilizzare le tecnologie AI/ML per ottenere il massimo dai loro ambienti hybrid cloud.
Allocazione automatizzata delle risorse
L'allocazione e l'ottimizzazione delle risorse sono essenziali negli ambienti cloud ibridi. Automatizzando e ottimizzando con un approccio AI/ML, le aziende possono ottimizzare le risorse e contenere i costi. L'analisi predittiva può anche analizzare i dati storici e i modelli di utilizzo per anticipare automaticamente le esigenze delle risorse per scalare le risorse on premise e cloud. L'AI/ML è in grado di distribuire i carichi di lavoro su cloud ibridi in modo che vengano eseguiti nelle posizioni più convenienti ed efficienti in base a latenza, costi e disponibilità.
Inoltre, le organizzazioni possono ottenere risparmi sui costi adeguando dinamicamente l'allocazione delle risorse in base alla domanda e all'analisi predittiva, mantenendo al contempo un'elevata disponibilità dei servizi e delle prestazioni delle applicazioni.
Sicurezza migliorata
Il monitoraggio della sicurezza basato sull'intelligenza artificiale aiuta le organizzazioni a identificare più rapidamente le minacce informatiche note negli ambienti hybrid cloud complessi. Grazie al rilevamento delle minacce basate su IA e ML, le aziende possono analizzare in modo più efficiente i log di sicurezza e il traffico di rete in tempo reale, aumentando la probabilità di individuare e rispondere a potenziali attacchi prima che causino danni. Gli algoritmi di rilevamento delle anomalie aggiungono un ulteriore livello di protezione, identificando le attività insolite e segnalando tempestivamente le potenziali violazioni, migliorando il livello di sicurezza generale dell'infrastruttura hybrid cloud.
Analizzando i set di dati e identificando i modelli, gli algoritmi di IA possono aiutare a mitigare le minacce emergenti, che le misure di sicurezza tradizionali potrebbero altrimenti ignorare.
Semplifica lo sviluppo e il deployment delle applicazioni
Gli strumenti basati sull'intelligenza artificiale possono accelerare lo sviluppo e il deployment delle applicazioni, aiutando i team a immettere i prodotti sul mercato più rapidamente e riducendo l'errore umano. Il machine learning può anche aumentare le risorse del team di sviluppo ottimizzando il codice, rilevando i bug e persino suggerendo miglioramenti dell'architettura per le app eseguite in ambienti cloud ibridi, il tutto per aumentare produttività ed efficienza.
RHEL AI e Granite Large Language Models
Red Hat Enterprise Linux AI (RHEL AI) include un sottoinsieme dei modelli di codice e linguaggio Granite open source. I modelli Granite sono una serie di LLM sviluppati da IBM per supportare le applicazioni di IA di livello enterprise. Sono progettati per supportare gli scenari di utilizzo dell'IA generativa (IA gen) che coinvolgono linguaggio e codice, come la generazione del testo, il completamento del codice e la traduzione del codice. Nell'ambito di RHEL AI, questi modelli offrono alle organizzazioni soluzioni ottimizzate in termini di costi e prestazioni per vari scenari di utilizzo dell'IA, fornendo al contempo supporto tecnico Red Hat di livello enterprise e il nostro servizio Open Source Assurance.
Scenario di utilizzo dello sviluppo applicativo: refactoring del codice con modelli di codice Granite
Ecco un esempio di utilizzo che mostra come gli LLM di Granite possano aiutare nella migrazione delle applicazioni a un cloud pubblico. Un'azienda può sfruttare un modello Granite per eseguire il refactoring di un'applicazione o piattaforma esistente per migliorare le prestazioni, la scalabilità e la gestione. Inoltre, il passaggio di una piattaforma a un ambiente cloud può aumentarne la resilienza e renderla più reattiva.
Prendiamo l'esempio di un grande istituto finanziario che dispone di una piattaforma di valutazione del rischio che valuta i portfolio dei clienti per quanto riguarda la conformità, il rilevamento delle frodi e il rischio di credito. Tuttavia, l'applicazione si basa su un'architettura obsoleta, il che rende difficile la scalabilità all'aumentare del volume dei dati. Inoltre, la manutenzione è costosa a causa delle dipendenze esistenti e per la lentezza nell'elaborazione delle valutazioni dei rischi in tempo reale. I leader aziendali desiderano eseguire la migrazione della piattaforma di valutazione del rischio ad AWS e, data l'importanza di questa piattaforma per le operazioni aziendali, il loro approccio richiede una migrazione per il refactoring.
Cos'è il refactoring?
Il refactoring è il processo di esecuzione delle applicazioni sull'infrastruttura di un provider cloud, che richiede la riprogettazione delle applicazioni per adattarle al meglio all'ambiente cloud. Questo approccio prevede la modifica di gran parte della base di codice nelle applicazioni esistenti per sfruttare le funzionalità basate sul cloud e la loro flessibilità aggiuntiva. Tuttavia, una migrazione con refactoring è più complessa e dispendiosa in termini di risorse rispetto ad altri approcci di migrazione al cloud, poiché qualsiasi modifica alla base di codice non può influire sul comportamento esterno dell'applicazione.
Una soluzione open source
I team di sviluppo possono integrare i modelli Granite nel proprio ambiente di sviluppo per fornire assistenza nella programmazione dell'IA. Insieme a un assistente al codice AI open source, gli sviluppatori di applicazioni possono adottare i modelli di codice Granite per facilitare la migrazione del refactoring. Questi modelli possono essere eseguiti localmente utilizzando strumenti come Ollama o InstructLab, mentre i team lavorano per modernizzare le applicazioni per gli ambienti cloud.
Dopo la configurazione, gli sviluppatori selezionano semplicemente il codice da migliorare per visualizzare i suggerimenti del modello Granite. Il modello Granite tenta di modernizzare la sintassi, estrarre metodi, rinominare le variabili e altro ancora. Questo metodo aiuta a velocizzare lo sviluppo mantenendo le competenze umane in primo piano, con il team di sviluppatori che esamina e accetta le modifiche al codice suggerite.
Un vantaggio è che gli sviluppatori possono utilizzare questi strumenti di intelligenza artificiale in locale senza compromettere le informazioni sensibili. Questo approccio ibrido rende la codifica più efficiente e la natura open source dei modelli Granite garantisce trasparenza agli interessati. Per informazioni dettagliate su come configurare un assistente di programmazione AI utilizzando i modelli Granite locali, consulta la sezione "Open source AI coding Assistance with the Granite models" per semplificare il refactoring delle migrazioni, il completamento del codice, la documentazione contestuale e il debugging.
Vantaggi
Le organizzazioni possono migliorare i deployment di cloud ibrido integrando l'IA nel proprio ambiente di sviluppo. In questo specifico scenario di utilizzo, i vantaggi includono:
- deployment più rapido delle app su un cloud pubblico;
- maggiore efficienza del team grazie alla riduzione dei costi operativi;
- tempi di risposta più rapidi grazie all'automazione;
- riduzione dei rischi riducendo al minimo l'errore umano;
- deployment più coerenti.
Infine, l'IA migliora l'efficienza in termini di costi negli ambienti hybrid cloud, ottimizzando l'allocazione delle risorse e aiutando a identificare altre opportunità di risparmio sui costi.
Visita il Red Hat Developer Hub
Nell'area Red Hat Developer Hub, mettiamo a disposizione risorse online per gli sviluppatori interessati alla creazione di applicazioni di IA di livello enterprise. Puoi anche scaricare immagini preconfigurate e avviabili di RHEL AI, inclusa la famiglia di LLM open source Granite di cui abbiamo parlato qui.
Sull'autore
Adam Wealand's experience includes marketing, social psychology, artificial intelligence, data visualization, and infusing the voice of the customer into products. Wealand joined Red Hat in July 2021 and previously worked at organizations ranging from small startups to large enterprises. He holds an MBA from Duke's Fuqua School of Business and enjoys mountain biking all around Northern California.
Altri risultati simili a questo
Ricerca per canale
Automazione
Novità sull'automazione IT di tecnologie, team e ambienti
Intelligenza artificiale
Aggiornamenti sulle piattaforme che consentono alle aziende di eseguire carichi di lavoro IA ovunque
Hybrid cloud open source
Scopri come affrontare il futuro in modo più agile grazie al cloud ibrido
Sicurezza
Le ultime novità sulle nostre soluzioni per ridurre i rischi nelle tecnologie e negli ambienti
Edge computing
Aggiornamenti sulle piattaforme che semplificano l'operatività edge
Infrastruttura
Le ultime novità sulla piattaforma Linux aziendale leader a livello mondiale
Applicazioni
Approfondimenti sulle nostre soluzioni alle sfide applicative più difficili
Serie originali
Raccontiamo le interessanti storie di leader e creatori di tecnologie pensate per le aziende