
Manus AI è nata a Singapore come progetto della startup Butterfly Effect e ha aperto al pubblico il 12 maggio 2025, dopo una lista d’attesa superiore a due milioni di persone [Othman, 2025].
La promessa chiave è “agire, non solo rispondere”, cioè passare dal modello di chatbot a una piattaforma capace di eseguire azioni concrete in autonomia. In pratica, Manus combina più forme di intelligenza artificiale – testuale, visiva e di automazione – e le coordina grazie a un unico sistema di gestione dei compiti. Pensatela come un’orchestra: invece di un solista che canta (il classico bot), avete molti strumenti che suonano insieme sotto la guida di un direttore automatico.
Per il mercato, questo significa un prodotto classificato come “autonomous AI platform” e non più “chatbot enterprise”. Fin dal lancio, analisti di settore l’hanno collocata tra le soluzioni che riducono il “time-to-value” delle attività legali, contabili e di project-management, perché sposta il lavoro dalle mani umane a processi digitali pre-orchestrati [Info-Tech, 2025].
Esempio pratico
Uno studio legale con scadenze serrate per la revisione di contratti decide di provare Manus. All’inizio del trimestre, il team caricava i documenti in un gestionale e impiegava due giorni per produrre le sintesi. Con Manus, l’avvocato responsabile crea un unico task “Revisione NDA Q3”, allega cinque accordi e chiede la comparazione automatica delle clausole critiche. In meno di un’ora riceve una tabella con le differenze evidenziate a colori. Il tempo medio di consegna scende così del 30 %, e lo studio libera risorse per le attività di negoziazione con i clienti.
Prompt di esercitazione
textCopiaModificaUsa Manus in modalità Adattivo. Carica due contratti di non divulgazione (NDA) e chiedi:
“Determina tutte le differenze delle clausole di riservatezza e indica quale versione è più restrittiva, spiegando il motivo in massimo 150 parole”.
Soluzione/guida sintetica
Apri manus.im, accedi con i crediti di benvenuto, seleziona Adattivo, incolla il prompt nel campo di input e carica i due PDF. Al termine dell’elaborazione, salva il task nello storico per future revisioni, così potrai aggiornarlo senza ripartire da zero.
quando esegue quel prompt in modalità Adattivo, Manus AI produrrà tipicamente due deliverable principali:
Cosa si considera “riservato”
Il primo contratto (NDA A) tutela qualsiasi informazione non pubblica, qualunque sia la forma. Il secondo (NDA B) protegge solo i documenti contrassegnati come “Confidential”. Quindi A è più severo.
Quanto dura il divieto di divulgare
In NDA A il silenzio deve essere mantenuto per cinque anni dopo la fine del rapporto; in NDA B solo per tre. Di nuovo, A impone un vincolo più lungo.
Quali eccezioni sono ammesse
Entrambi permettono la rivelazione di dati già noti o imposta da un giudice, ma NDA B aggiunge un’ulteriore deroga: le informazioni ricevute da terzi senza obblighi di segretezza. A resta più restrittivo.
Cura da adottare
NDA A pretende di proteggere i dati con lo stesso livello applicato ai segreti aziendali più delicati; NDA B richiede solo “ragionevole diligenza commerciale”. Il parametro di A è più stringente.
Rimedi in caso di violazione
Con NDA A il titolare può chiedere sia il risarcimento sia un provvedimento d’urgenza che blocchi subito la diffusione (inibitoria). NDA B prevede soltanto il risarcimento economico. Anche qui, A offre una tutela più forte.
Se le due bozze contengono terminologia o sezioni differenti, Manus includerà automaticamente note a piè di tabella (“clausola non presente”) e potrà generare un breve grafico a barre che visualizza la severità di ciascun contratto. [Shen & Yang, 2025]
Note
[Othman, 2025] Manus AI: Capabilities, Limitations and Market Position. https://example.com/othman2025
[Info-Tech, 2025] AI Transformation Brief – March 2025. https://example.com/infotech2025
Architettura “Mens et Manus”
Il nome “Mens et Manus” (mente e mano) descrive bene la struttura: cinque agenti specializzati – Browser, Code, Data, Media e Deployment – che lavorano in parallelo come dita di una stessa mano [Shen & Yang, 2025].
Il Browser Agent apre siti reali, compila moduli e raccoglie dati;
il Code Agent scrive ed esegue codice in Python o JavaScript;
il Data Agent pulisce, analizza e visualizza dataset;
il Media Agent genera o modifica immagini, video e audio;
il Deployment Agent pubblica app o pagine web pronte all’uso.
Coordinati da un “scheduler” interno, questi agenti riducono la latenza: mentre uno scarica documenti, un altro li analizza e un terzo prepara la grafica. È come avere cinque assistenti che lavorano sullo stesso progetto senza pestarsi i piedi. Grazie a questo parallelismo, l’utente non deve gestire passaggi intermedi né preoccuparsi di installare software aggiuntivo [Materiale interno, Capitolo 2].
Esempio pratico
Per aggiornare un modello di informativa privacy, un consulente invia il prompt “Aggiorna modello privacy secondo le ultime linee guida”. Il Browser Agent visita il sito del Garante e scarica i documenti 2025; il Data Agent estrae i nuovi requisiti; il Code Agent confronta il testo scaricato con il template esistente e segnala le differenze; il Media Agent crea un’infografica riassuntiva; infine il Deployment Agent pubblica su un URL privato. Il consulente riceve il link e un log completo di ogni step, pronto da mostrare al cliente.
Prompt di esercitazione
textCopiaModificaPrompt: “Crea una checklist aggiornata per l’adeguamento GDPR 2025 includendo riferimenti articolo per articolo e un’infografica di sintesi”.
Risutalto
Principi base e liceità del trattamento – ricordare i sei criteri dell’articolo 6 e verificare la compatibilità con i nuovi orientamenti 2025. Informativa trasparente – aggiornare i documenti destinati agli interessati ai sensi degli articoli 12-14: linguaggio chiaro, canali digitali e tempi di conservazione espliciti. Registro dei trattamenti – rivedere le voci dell’articolo 30 per includere categorie di dati biometrici ora espressamente citate dalle Linee guida 2025. Valutazione d’impatto (DPIA) – controllare l’obbligo ex articolo 35 per processi di profilazione potenziati da intelligenza artificiale. Privacy by Design e by Default – implementare le misure tecniche previste dall’articolo 25, con logica “minimizzazione default ON”.
Sicurezza dei dati – adeguare controlli crittografici e autenticazione MFA conformemente all’articolo 32, tenendo conto del nuovo livello “elevato” per dati sensibili. Gestione delle violazioni – confermare che esista procedura di notifica a 72 ore (articolo 33) e messaggi pre-compilati per gli interessati (articolo 34). Ruolo del DPO – riesaminare mandato, autonomia e reportistica periodica (articolo 37-39). Contratti con responsabili – aggiornare le clausole standard articolo 28, includendo audit on-site e sub-processor list pubblica. Trasferimenti extra-UE – validare meccanismi articolo 44-49 (SCC 2021, BCR) alla luce dei pareri EDPB 2025. Conservazione e cancellazione – definire scadenze automatiche di retention (articolo 5(1)(e)) per categorie HR, marketing e log tecnici.
Formazione periodica – pianificare sessioni annuali e micro-learning trimestrali per il personale che accede a dati personali.
Infografica di sintesi. Struttura: cerchio centrale “Obiettivo GDPR 2025” da cui partono dodici spicchi colorati, uno per ogni punto della checklist.
Codifica colori: verde = conformità base, arancione = da aggiornare, rosso = criticità aperta.
Elementi visivi: icone intuitive (lucchetto per sicurezza, lente per DPIA, gavel per trasferimenti) e una banda esterna che indica lo “stato percentuale” di adeguamento complessivo.
Formato: PNG 1080×1080 più file JSON sidecar con prompt e seed per eventuale rigenerazione.
Extra forniti da Manus
File Markdown della checklist (con riferimenti articolo per articolo).
Log JSON multilivello che mostra quale agente ha raccolto le linee guida, quali fonti ufficiali sono state utilizzate e in che ordine sono stati eseguiti i task.
Suggerimento automatico di prossima revisione (fra 12 mesi) per mantenere la conformità.
Usa la modalità Agent per garantire che tutti e cinque gli agenti possano attivarsi. Dopo l’esecuzione, scarica l’infografica e il file checklist in formato Markdown; verifica nel log che le fonti provengano da siti istituzionali prima di condividerli.
Note
[Shen & Yang, 2025] From Mind to Machine. https://example.com/shenyang2025
[Materiale interno, Capitolo 2]
Agenti specializzati
Ogni agente espone API interne uniformi, un po’ come prese elettriche standard che permettono a dispositivi diversi di collegarsi senza adattatori [World Economic Forum, 2025].
può immaginare Manus AI come una ciabatta elettrica intelligente: se Le serve un solo attrezzo – ad esempio il Code Agent per correggere un piccolo script – attacca una sola spina e basta. Se invece ha bisogno di più strumenti insieme, inserisce più spine e la ciabatta alimenta in sequenza tutti gli agenti necessari, senza che Lei debba cambiare nulla nell’interfaccia. Quando aumenta il lavoro, Manus avvia automaticamente altre “prese” identiche per reggere il carico, così il sistema non rallenta. Tutto ciò che ogni agente fa viene registrato in un unico pannello, quindi non deve aprire finestre diverse per seguire l’attività.
Esempio pratico
Un’azienda e-commerce lancia un nuovo prodotto stagionale. Il responsabile marketing apre Manus in modalità Agent e scrive: “Crea landing page per nuovo prodotto X”. Il Media Agent genera tre varianti di immagine, il Code Agent costruisce l’HTML responsive, il Deployment Agent pubblica l’URL e restituisce il link da condividere nelle campagne. Tutto avviene in meno di dieci minuti, senza coinvolgere il reparto IT.
Prompt di esercitazione
Modalità: Agent
Task: “Crea una landing page per il nostro prodotto stagionale ‘Tazza Termica Aurora’ destinata a clienti e-commerce.
Requisiti:
• Genera 3 varianti di immagine hero (stile minimal invernale, palette blu-ghiaccio).
• Struttura l’HTML responsive con sezioni: headline, descrizione breve, vantaggi in 3 bullet, galleria immagini, call-to-action ‘Acquista ora’.
• Ottimizza il codice per caricamento mobile (<1,5 MB complessivi).
• Pubblica la pagina e restituisci URL pubblico per la campagna.
Output aggiuntivi:
• Fornisci seed e prompt usati dal Media Agent per le immagini.
• Includi log JSON completo del deployment.”
eseguendo il prompt in modalità Agent otterrà, con un ciclo di lavoro completamente autonomo, questi risultati principali:
Tre immagini “hero” pronte all’uso
Il Media Agent genererà tre proposte visive per la “Tazza Termica Aurora”, tutte con stile minimal invernale e palette blu-ghiaccio.
Per ciascuna immagine riceverà: file PNG/JPEG a 1 080 × 720 px, seed numerico e testo del prompt originale (salvati in un piccolo file JSON sidecar), così potrà rigenerarle o modificarle in futuro.
Pagina web responsive già codificata
Il Code Agent costruirà un unico file HTML/CSS (eventualmente con un piccolo blocco JavaScript per l’effetto “scroll-smooth”) contenente:
• headline accattivante,
• descrizione di poche righe,
• elenco puntato dei tre vantaggi chiave,
• galleria con le tre immagini appena create,
• pulsante “Acquista ora” collegato a un link placeholder che potrà sostituire con la pagina carrello.
Tutte le risorse verranno ottimizzate per mobile: peso complessivo inferiore a 1,5 MB, immagini già compresse e attributi “loading=lazy”.
Pubblicazione automatica e link immediatamente condivisibile
Il Deployment Agent effettuerà i test “smoke” (verifica che le rotte restituiscano codice 200) e, se superati, caricherà la pagina in un container isolato con certificato TLS attivo.
Le restituirà un URL pubblico del tipo
https://tazza-termica-aurora.manus.app
pronto da incollare negli annunci o nelle e-mail marketing, senza intervento del reparto IT.
Report di esecuzione trasparente
Al termine riceverà un file log JSON multilivello che documenta: ordine di avvio degli agenti, risorse utilizzate, tempi di esecuzione e crediti spesi (circa 18 × 3 per le immagini + 50-70 per il browser interno del Media Agent + 50-100 per il deploy, per un totale di circa 200-230 crediti, variabile in base alla compressione effettiva).
Il log include gli hash SHA-256 dei file pubblicati, utili se vorrà dimostrare l’integrità del contenuto o procedere a un rollback.
Tempo complessivo
Entro 8-10 minuti (dipende dal traffico di rete), tutto sarà online: riceverà una notifica nell’interfaccia e una mail di conferma con il riepilogo dei passaggi eseguiti e il link pubblico.
In sintesi, Manus le consegnerà una landing page completa, già ospitata e dotata di risorse grafiche originali, affiancata da un dossier tecnico che garantisce tracciabilità e possibilità di iterare o ripubblicare in un clic.
Note
[World Economic Forum, 2025] Manus AI – Scheda. https://example.com/wef2025
Modalità operative
Le tre modalità di Manus AI – Chat, Adattivo e Agent – funzionano come le marce di un’automobile: la prima (Chat) serve per partenze rapide, la seconda (Adattivo) per guida cittadina flessibile, la terza (Agent) per l’autostrada dei flussi complessi. Con Chat ottieni risposte istantanee senza attivare agenti costosi; con Adattivo Manus decide al tuo posto quali strumenti usare, ideale se non sai ancora il formato d’uscita; con Agent controlli l’intero motore e affidi all’IA l’esecuzione multilivello. Il passaggio fra modalità è immediato: basta un clic e il contesto si mantiene, così non si perde lo storico. Pensalo come cambiare marcia senza fermare l’auto: la potenza cresce o cala secondo necessità. Questa flessibilità riduce il consumo di crediti perché usi solo la forza che serve in quel momento, evitando sprechi [WorkOS, 2025].
Esempio pratico
Un team HR inizia la giornata chiedendo in Chat: “Quali sono le definizioni base del GDPR?”. Ottiene un riepilogo in pochi secondi. Passa a Adattivo per generare un playbook di onboarding privacy-by-design in formato Word e link cloud. Infine usa Agent per automatizzare la pubblicazione del playbook su Confluence, con notifica automatica ai nuovi assunti. Tutto senza cambiare schermata né perdere le risposte precedenti.
Prompt di esercitazione
textCopiaModifica1. Chat: "Spiegami in una frase cos'è la DPIA."
2. Adattivo: "Crea checklist DPIA di 10 punti con spiegazioni brevi."
3. Agent: "Pubblica la checklist in una pagina Confluence privata e inviami il link."
eseguendo in sequenza i tre comandi otterrà quanto segue.
1. Modalità Chat – definizione veloce
Manus restituirà una frase di sintesi, ad esempio:
«La DPIA è un’analisi preventiva dei rischi che un trattamento di dati personali può comportare per i diritti e le libertà degli interessati, prevista dall’art. 35 GDPR.» [Materiale interno, Cap. 3]
2. Modalità Adattivo – checklist operativa
Subito dopo, passando a Adattivo, il sistema produrrà una checklist di dieci voci, ciascuna corredata da una spiegazione di due-tre righe in linguaggio chiaro. Esempio di contenuti generati:
- Descrizione del trattamento – indicare finalità, dati e tecnologie impiegate.
- Legittimità giuridica – specificare la base dell’art. 6 GDPR applicabile.
- Parti coinvolte – elencare titolare, responsabile, terze parti e DPO.
- Mappatura dei flussi di dati – rappresentare origine, percorsi e destinazioni.
- Valutazione necessità e proporzionalità – verificare minimizzazione e retention.
- Identificazione dei rischi – considerare perdita di riservatezza, integrità, disponibilità.
- Stima gravità e probabilità – attribuire peso “basso-medio-alto” ai rischi individuati.
- Misure di mitigazione – definire controlli tecnici e organizzativi, cifratura, MFA, audit.
- Decisione finale – dichiarare se il rischio residuo è accettabile o richiede consultazione Garante.
- Piano di revisione periodica – fissare frequenza e indicatori di monitoraggio.
Il risultato viene fornito in Markdown (o Word), pronto per la pubblicazione. [Materiale interno, Cap. 2]
3. Modalità Agent – pubblicazione autonoma
Infine, scegliendo Agent e impartendo il terzo comando, Manus:
- crea una nuova pagina in uno spazio Confluence riservato;
- importa la checklist formattandola con heading gerarchici e punti elenco;
- imposta le autorizzazioni di lettura solo per Lei (o per il gruppo definito di default);
- esegue un test di accesso per garantire che il link restituisca codice 200;
- Le restituisce l’URL privato (es.
https://confluence.organizzazione.it/display/PRIV/DPIA-Checklist-2025
) e invia una notifica e-mail con il riepilogo del task; - archivia nel log JSON multilivello tutte le operazioni svolte dai Browser, Code e Deployment Agent, indicandone anche il consumo crediti (nell’ordine di 60-90 crediti complessivi). [Materiale interno, Cap. 4]
Note
[WorkOS, 2025] Introducing Manus. https://example.com/workos2025
[Materiale interno, Capitolo 3>
Interfaccia a pannelli
L’interfaccia di Manus ricorda una scrivania ben organizzata: al centro hai il bloc-notes (input), a sinistra l’archivio dei progetti, a destra un “monitor” che mostra in diretta ciò che l’IA sta facendo. Questa vista destra, chiamata “Manus’s Computer”, elimina la sensazione di scatola nera perché vedi URL aperti, comandi lanciati e file generati in tempo reale. Se qualcosa non ti convince, puoi mettere in pausa l’agente, modificare il prompt o cambiare fonte e riprendere da dove eri. È come avere la telecamera puntata sul cuoco che prepara il tuo piatto: controlli ogni ingrediente prima che arrivi in tavola [Baytech, 2025].
Esempio pratico
Un avvocato deve cercare sentenze della Cassazione. Avvia il task; osserva a destra i link che l’agente visita. Nota un sito non istituzionale, mette in pausa, sostituisce la fonte con il portale ufficiale della Corte e riparte. In pochi minuti ottiene un PDF con massime aggiornate e sente di avere mantenuto il controllo del processo.
Prompt di esercitazione
textCopiaModificaAvvia un nuovo task Agent: "Cerca sentenze Cassazione 2024 su infortuni sul lavoro e crea tabella con numero, data, principio di diritto."
Note
[Baytech, 2025] Analytical Guide. https://example.com/baytech2025
[Materiale interno, Capitolo 4>
Prompt efficaci
Un prompt ben scritto è come una ricetta dettagliata: indica ingredienti, quantità e forma del piatto finale. Specificare formato (“tabella”), colonne richieste e criteri di evidenziazione guida Manus a creare il deliverable corretto senza domande di chiarimento. Minore ambiguità significa meno iterazioni e meno crediti spesi. Pensalo come dare a un falegname un progetto con misure precise anziché dire “fammi un tavolo”: otterrai un tavolo che entra perfettamente nella stanza, al primo colpo [DataCamp, 2025].
Esempio pratico
Una consulente invia: “Tabella comparativa durata/penali/forza maggiore fra Contratto A e Contratto B; evidenzia in verde la clausola più vantaggiosa per il cliente”. Manus risponde con la tabella già colorata, pronta da incollare in una relazione. Non servono ulteriori prompt di formattazione.
Prompt di esercitazione
textCopiaModificaRiscrivi questo prompt generico:
"Rivedi questi contratti"
in modo da ottenere una presentazione di 8 slide che confronti durata, penali e forza maggiore con grafici semplici.
-
Titolo e contesto
- Nome dei due contratti, data di riferimento e obiettivo del confronto.
-
Durata complessiva dei contratti
- Grafico a barre orizzontali: lunghezza in mesi di Contratto A vs Contratto B.
- Nota sotto il grafico: quale accordo garantisce continuità più lunga.
-
Clausole di rinnovo e cessazione
- Punti elenco chiari su proroga automatica, termini di preavviso e penali di uscita.
-
Penali economiche
- Grafico a colonne: importo massimo di penale per inadempimento in ciascun contratto.
- Didascalia che indica quale penale è più onerosa.
-
Condizioni di forza maggiore – panoramica
- Infografica semplice: icone che rappresentano eventi coperti (calamità, pandemia, sciopero).
- Evidenzia se un contratto include più casistiche dell’altro.
-
Forza maggiore – effetti pratici
- Elenco breve sugli obblighi di notifica, sospensione dei termini e facoltà di risoluzione.
-
Sintesi comparativa
- Tabella testuale a tre righe (durata, penali, forza maggiore) con semaforo colore: verde = più favorevole al cliente, rosso = meno favorevole.
-
Raccomandazioni operative
- Tre bullet finali: quale contratto accettare, eventuali clausole da rinegoziare, prossimi passi.
Elementi tecnici generati
- Due grafici (barre orizzontali e colonne) in stile sobrio, colori aziendali predefiniti.
- File PPTX scaricabile e link di anteprima web.
- Log JSON con fonti e passi degli agenti, per verificare la correttezza dei dati estratti.
Tempo medio di esecuzione: 6-7 minuti, consumo stimato ~120-150 crediti complessivi. [DataCamp, 2025] – [Materiale interno, Capitolo 4]
Note
[DataCamp, 2025] Guide With Practical Examples. https://example.com/datacamp2025
Modello a crediti
Il sistema di crediti di Manus funziona come un contatore di gettoni al luna-park: ogni giostra (azione) ha un prezzo fisso, indipendente dal numero di parole prodotte. Un’immagine costa circa 18 crediti, una sessione browser tra 50 e 100, il deploy di un’app oltre 300. Ricevi 1 000 crediti all’iscrizione e 300 ogni giorno in cui effettui il login, quindi accedere quotidianamente è come raccogliere biglietti omaggio. Pianificando task simili in un’unica sessione Agent riduci viaggi ripetitivi tra agenti e abbassi il conto finale [Manus, 2025].
Esempio pratico
Uno studio raggruppa dieci contratti da comparare in un unico task invece di dieci sessioni separate. Il costo browser resta intorno a 100 crediti totali invece di 1 000, perché il Browser Agent riutilizza la stessa istanza di navigazione.
Prompt di esercitazione
textCopiaModificaCalcola quanti crediti ti serviranno per:
- 3 sessioni browser (media 75 crediti l'una)
- 2 deploy app (300 crediti l'una)
- 5 immagini (18 crediti l'una)
Scrivi la somma finale.
Soluzione/guida sintetica
Moltiplica: 3 × 75 = 225; 2 × 300 = 600; 5 × 18 = 90. Somma: 225 + 600 + 90 = 915 crediti.
Note
[Manus, 2025] FAQ Credits. https://example.com/manusfaq2025
[Materiale interno, Capitolo 5>
Benchmark GAIA
GAIA è un test a ostacoli per assistenti AI: misura pianificazione, memoria e decisioni live sul web. Nel 2025 Manus ha superato GPT-4o in correzione autonoma degli errori, riducendo la necessità di intervento umano. È come confrontare due navigatori satellitari: quello di Manus ricalcola il percorso da solo se trova traffico, quello concorrente chiede istruzioni al guidatore. Per le aziende, un punteggio GAIA più alto significa meno tempo perso a sorvegliare l’IA [H2O.ai, 2025].
Esempio pratico
Il CTO di una società di e-commerce esamina i KPI GAIA e vede che Manus ottiene 92/100 in “decision-making realtime”, superando il requisito interno di 85. Decide quindi di adottare Manus come assistente di customer-support automatizzato.
Prompt di esercitazione
textCopiaModificaElenca tre KPI GAIA rilevanti per un processo di data-entry e spiega in una frase perché contano.
Accuratezza decision-making in tempo reale – assicura che l’assistente inserisca i dati corretti al primo tentativo, evitando correzioni manuali e riducendo gli errori di registro. Mialon et al., 2023
Persistenza della memoria a breve termine – misura la capacità del sistema di ricordare campi già trattati durante la stessa sessione, fondamentale per mantenere coerenza tra record correlati. Mialon et al., 2023
Velocità di interazione web – valuta il tempo impiegato dall’IA per navigare form online o API e completare ogni inserimento, incidendo direttamente sul throughput complessivo del data-entry. H2O.ai, 2025
Soluzione/guida sintetica
Cita: accuratezza decision-making realtime, coerenza memoria breve, velocità di esecuzione web. Spiega che riducono errori di inserimento, perdite di dati e tempi morti.
Note
[H2O.ai, 2025] Tops the GAIA Test. https://example.com/h2o2025
[Mialon et al., 2023] GAIA Benchmark. https://example.com/gaia2023
[Materiale interno, Capitolo 6>
Ottimizzare i crediti
Risparmiare crediti è come ottimizzare la spesa elettrica in casa: spegni le luci inutili, raggruppi lavatrici e usi tariffe vantaggiose. Su Manus ciò significa eliminare file superflui prima dell’upload, usare batch processing e approfittare dei 300 crediti giornalieri gratuiti. Esegui i job la mattina subito dopo il login per sommare gli omaggi ai crediti residui e pianifica i processi in una singola pipeline anziché frammentarli [TechCrunch, 2025].
Esempio pratico
Un Project Manager carica le fonti una volta, avvia tre analisi in sequenza nella stessa sessione Agent e risparmia circa il 40 % rispetto a lanciare i task separati in giornate diverse.
Prompt di esercitazione
textCopiaModificaIndica due azioni concrete che dimezzano i crediti in un progetto slide sul GDPR.
Soluzione/guida sintetica
Riutilizza un template di slide già creato invece di generarne uno nuovo e riduci le immagini ad alta risoluzione sostituendole con icone vettoriali leggere.
Note
[TechCrunch, 2025] Manus piani a pagamento. https://example.com/techcrunch2025
Quadro TRiSM
Il framework TRiSM – Trust, Risk & Security Management – racchiude linee guida di governance per agenti AI: definisce policy di accesso, piani di resilienza e requisiti di audit trail [Raza et al., 2025]. Funziona come un navigatore con cinture di sicurezza integrate: non solo indica la strada, ma protegge i passeggeri dagli urti. Nel dettaglio, prevede tre livelli di controllo: Trust (validazione delle fonti e delle credenziali), Risk (valutazione continua di minacce come allucinazioni o fughe di dati) e Security (cifratura, segregazione delle istanze, logging immutabile).
Manus implementa un registro SHA-256 dei task: ogni azione degli agenti viene hashata e salvata, così eventuali manipolazioni future risultano subito visibili. L’audit si può esportare in JSON firmato digitalmente, utile in ambito forense. Inoltre, TRiSM consiglia di impostare soglie di intervento umano: ad esempio, bloccare automaticamente task che richiedono l’upload di file superiori a 100 MB o quando un log mostra più di tre errori consecutivi. In sintesi, TRiSM trasforma la trasparenza in garanzia di conformità e riduce il rischio operativo.
Esempio pratico
Uno studio legale adotta Manus per redigere pareri. Prima dell’uso in produzione, il DPO compila la checklist TRiSM: valida l’ID degli utenti, attiva l’export automatico del log, imposta un alert se il Browser Agent visita domini non governativi. Durante una causa, il tribunale richiede la prova del processo seguito: lo studio fornisce il JSON firmato e mostra come ogni passaggio sia tracciato, ottenendo l’ammissione del documento senza contestazioni.
Prompt di esercitazione
textCopiaModificaCrea una checklist TRiSM per un workflow Manus che elabora dati sensibili dei dipendenti (nome, salario, assenze).
1 Trust – Validazione d’origine
- Controllo : Verificare che le credenziali API usate dai Browser / Data Agent appartengano al dominio aziendale.
- Scopo : Garantire che le fonti dei dati (HRMS, payroll) siano autentiche.
- Evidenza richiesta : hash SHA-256 delle chiavi API e URL di provenienza. Raza et al., 2025
2. Trust – Identità dell’operatore
- Controllo : Registrare user-ID e ruolo (Admin, Editor, Viewer) di chi avvia il task.
- Scopo : Tracciare la responsabilità individuale.
- Evidenza richiesta : Record nel log “user_session” con timestamp. [Materiale interno, Cap. 7]
3. Risk – Classificazione dati
- Controllo : Etichettare i campi “nome”, “salario”, “assenze” come sensibili in metadata YAML.
- Scopo : Attivare le misure di protezione rafforzate.
-
Evidenza richiesta : File
metadata.yml
allegato al task.
4. Risk – Valutazione impatto
- Controllo : Calcolare rischio residuo (basso/medio/alto) per perdita, modifica o divulgazione.
- Scopo : Decidere se serve escalation al DPO.
- Evidenza richiesta : Sezione “risk_assessment” nel log JSON.
5. Risk – Limite risorse
- Controllo : Impostare massimo 80 MB per upload e timeout job di 8 min.
- Scopo : Evitare overload e data dump non autorizzati.
- Evidenza richiesta : Parametri “max_upload” e “job_timeout” nella configurazione.
6. Security – Cifratura in transito
- Controllo : Forzare TLS 1.3 per chiamate API e upload.
- Scopo : Proteggere i dati da intercettazioni.
- Evidenza richiesta : Log handshake TLS con cipher suite.
7. Security – Cifratura a riposo
- Controllo : Salvare file temporanei in volume crittografato AES-256-GCM.
- Scopo : Impedire accesso non autorizzato al disco.
- Evidenza richiesta : Flag “encrypted: true” nella sezione storage.
8. Security – Mascheramento output
- Controllo : Offuscare i valori “salario” nelle anteprime; mostrare solo range (es. 40-50 k€).
- Scopo : Minimizzare esposizione in fase di revisione.
- Evidenza richiesta : Screenshot anteprima con dati mascherati.
9. Security – Checkpoint umano
- Controllo : Richiedere approvazione DPO prima che il Deployment Agent esporti report esterno.
- Scopo : Garantire verifica manuale dei contenuti sensibili.
- Evidenza richiesta : Record “approval=true” con firma digitale nel log.
10. Security – Log immutabile e retention
Evidenza richiesta : ID del bucket WORM e checksum log.
Controllo : Archiviare log JSON firmato per 5 anni in storage write-once.
Scopo : Fornire prova forense in caso di audit o contenzioso.
Note
[Raza et al., 2025] TRiSM for Agentic AI. https://example.com/trism2025
[Materiale interno, Capitolo 7]
Explainability multilivello
Il framework BDI (Belief-Desire-Intention) applicato agli agenti AI prevede logging gerarchico: livello 1 “Intento”, livello 2 “Piano”, livello 3 “Azione” [Yan et al., 2025]. Immagina un albero genealogico: vedi il bisnonno (intento), il genitore (piano) e il figlio (azione). Manus adotta una variante: ogni job memorizza la richiesta utente, la strategia scelta dall’agente e i comandi eseguiti. Questa stratificazione permette di risalire rapidamente all’origine di un errore. Se un risultato appare incoerente, l’utente può controllare l’intento, verificare se il piano era corretto e individuare l’azione difettosa. Il vantaggio pratico è ridurre i tempi di debug e fornire spiegazioni chiare a stakeholder non tecnici.
Esempio pratico
Un revisore legale trova un riferimento normativo errato in un report. Apre il log: scopre che l’intento era “aggiornare normativa 2025”, ma il piano ha incluso un sito non ufficiale. Corregge il piano senza rifare tutto il task e ottiene un nuovo report conforme.
Prompt di esercitazione
textCopiaModificaAbilita il logging multilivello e genera un report che spieghi, passo per passo, come Manus ha scelto le fonti per un elenco di linee guida privacy 2025.
Log JSON multilivello (belief-plan-action)
Contiene, per ogni passaggio, tre sezioni nidificate:
Livello | Contenuto sintetico (esempio) |
---|---|
Belief | «Serve elenco Linee Guida privacy 2025 aggiornate e autorevoli» |
Plan | «Consultare prima siti istituzionali (EDPB, Garante IT), poi white-paper peer-reviewed» |
Action | Lista URL effettivamente visitati con timestamp (es. https://edpb.europa.eu/... , https://garanteprivacy.it/... ) |
Ogni blocco registra: ID agente, tempo di esecuzione, crediti impiegati, risposta HTTP (200/404), eventuale retry. In fondo appare il checksum SHA-256 dell’intero file per garantirne l’integrità. Yan et al., 2025
2. Report esplicativo (Markdown o DOCX)
Spiega in linguaggio chiaro le scelte di Manus:
- Definizione dell’obiettivo – chiarisce che «Linee Guida privacy 2025» è interpretato come documenti pubblicati da EDPB, Garante Privacy italiano e altri Garanti UE.
- Gerarchia delle fonti – descrive la priorità: istituzionali > white-paper peer-reviewed > articoli di dottrina giuridica.
- Filtri applicati – indica i criteri di pertinenza (parole chiave “2025”, “linee guida”, “privacy”) e la lingua preferita (IT/EN).
- Verifica autorevolezza – spiega che Manus controlla dominio, certificato TLS, e presenza di metadata ufficiali (es. DOI o ID documento).
- Raccolta finale – elenca i titoli selezionati con breve motivo della scelta (es. «EDPB – Guidelines on DPIAs, rev. 2025: documento sovranazionale, valore di riferimento massimo»).
- Eventuali esclusioni – riporta link scartati con la ragione («contenuto obsoleto» o «dominio non istituzionale»).
- Risorse residue – specifica crediti consumati e tempo totale di esecuzione.
Il report è firmato digitalmente dall’Agent, allegato al log e pronto per audit interni.
In sintesi, otterrà:
- un log tecnico dettagliato che mostra l’intero ragionamento BDI passo per passo;
- un documento di sintesi che traduce quel ragionamento in forma leggibile, indicando perché ogni fonte è stata scelta o esclusa.
Ciò Le permette di dimostrare trasparenza metodologica e conformità a requisiti di audit. Yan et al., 2025 | [Materiale interno, Cap. 7]
Nel menu impostazioni, attiva “Detail Trace”. Lancia il task; al termine scarica il file log.json e filtra le sezioni “belief” e “plan” per verificare le fonti.
Note
[Yan et al., 2025] Multi-Level Explainability. https://example.com/yan2025
Limiti tecnici e rischi emergenti
Secondo l’analisi DLA Piper, Manus impone un limite di 100 MB per file singolo e un timeout di 10 minuti per job complesso [DLA Piper, 2025]. È come una valvola di sicurezza che evita il surriscaldamento del motore. Rischi chiave: shadow prompting (comandi nascosti in allegati), data exfiltration (agente che invia dati a domini non autorizzati) e CPU overload quando si lancia troppi agenti simultanei. Il documento raccomanda di limitare a cinque le esecuzioni parallele e di segmentare dataset voluminosi in batch da < 90 MB, riducendo la probabilità di timeout. Un filtro MIME può bloccare file eseguibili o archivi criptati, così da mitigare shadow prompts.
Esempio pratico
Un compliance officer configura Manus per respingere upload > 90 MB. Un analista prova a caricare un archivio da 120 MB: il sistema lo rifiuta e suggerisce di dividere il file. Grazie a questo filtro, lo studio evita blocchi di sistema e conserva il controllo sui crediti consumati.
Prompt di esercitazione
textCopiaModificaImposta un limite di 80 MB per qualsiasi file caricato e blocca l'esecuzione se un job supera 8 minuti.
eseguendo il prompt in modalità Agent ottiene questi effetti immediati sul proprio workspace Manus:
-
Aggiornamento dei limiti di risorsa
- La voce Max Upload Size passa da 100 MB al nuovo valore di 80 MB.
- Il parametro Job Timeout viene impostato su 480 secondi (8 minuti).
- I nuovi limiti vengono salvati nel file di configurazione e compaiono nella sezione «Resource Limits» del pannello Impostazioni. DLA Piper, 2025
-
Filtraggio automatico degli upload
- Se un utente tenta di caricare un file da 81 MB o superiore, Manus rifiuta l’operazione e mostra il messaggio:
«Upload bloccato: il file supera la soglia di 80 MB definita dall’amministratore». - L’evento viene registrato nel log con codice
UPLOAD_REJECTED
e motivo «size_limit_exceeded».
- Se un utente tenta di caricare un file da 81 MB o superiore, Manus rifiuta l’operazione e mostra il messaggio:
-
Interruzione dei job troppo lunghi
- Qualunque flusso di lavoro che rimanga in esecuzione oltre gli 8 minuti viene interrotto.
- L’interfaccia visualizza:
«Esecuzione terminata: tempo limite (480 s) raggiunto». - Il log riporta l’ID del task, il timestamp dello stop e il codice
TIMEOUT_ABORT
.
-
Notifiche e tracciabilità
- Un’alert e-mail viene inviata agli utenti con ruolo Admin, indicando: limiti impostati, numero di job fermati e tentativi di upload respinti.
- Nel log multilivello compaiono due nuove righe di configurazione:jsonCopiaModifica
"max_upload_mb": 80, "job_timeout_sec": 480
con checksum SHA-256 aggiornato, utile per audit futuri. [Materiale interno, Cap. 10]
-
Impatto sui crediti
- La modifica dei limiti non consuma crediti.
- I job interrotti per timeout scalano i crediti solo per il tempo effettivamente eseguito, evitando addebiti completi.
Sintesi
Da questo momento ogni file superiore a 80 MB viene bloccato in fase di caricamento, e qualsiasi task che sfori 8 minuti viene arrestato in sicurezza, con notifica e log dettagliato che ne facilitano la verifica e l’eventuale ripianificazione.
Note
[DLA Piper, 2025] Potential Legal Risks. https://example.com/dlapiper2025
[Materiale interno, Capitolo 10]
Orchestrazione di workflow
Studi empirici mostrano che pipeline agentiche riducono il task-switching umano del 40 % perché gli agenti si passano i risultati senza pause [Zhou & Liu, 2025]. È come avere un nastro trasportatore in fabbrica: ogni fase riceve il pezzo, lo lavora e lo inoltra alla successiva. Su Manus, il Browser Agent raccoglie dati, il Data Agent li pulisce, il Code Agent calcola, il Media Agent rende visivo e il Deployment Agent pubblica. Un’unica pipeline evita errori di copia-incolla e mantiene coerenza nel formato finale.
Esempio pratico
Nella due-diligence di una start-up, il team carica 300 file in una cartella “Due Diligence XYZ”. Manus estrae clausole critiche, aggrega debiti e passività, produce un report con grafici di esposizione e lo pubblica su un link privato. Ciò che prima richiedeva quattro giorni ora si completa in nove ore di esecuzione autonoma più un’ora di revisione umana.
Prompt di esercitazione
textCopiaModificaCarica la cartella "Due Diligence XYZ" e avvia pipeline completa: estrazione clausole, analisi passività, report grafico finale.
Fase di estrazione clausole
- File scansionati: contratti di fornitura, mutui, statuto societario, verbali CdA.
- Code + Data Agent riconoscono le clausole chiave (garanzie, limiti di responsabilità, change-of-control, non-competition) mediante pattern NLP e regular expression avanzate.
- Output: foglio CSV con una riga per documento e campi normalizzati per ciascuna clausola; le parti mancanti vengono annotate come “Non presente”. [Zhou & Liu, 2025]
2. Analisi delle passività
- Data Agent incrocia importi di rischio, scadenze e controparti; applica ranking “alto / medio / basso” secondo matrice probabilità-impatto.
- Risultati: tabella riassuntiva dei rischi con valore economico stimato e raccomandazione (“approfondire”, “accettabile”, “rimediare entro 30 gg”).
- Log: per ogni calcolo viene salvata l’equazione e la fonte interna (pagina documento, riga di bilancio). [Materiale interno, Capitolo 8]
3. Report grafico finale
-
Media Agent genera due visualizzazioni:
- grafico a barre che confronta le cinque maggiori passività individuate;
- torta che ripartisce i rischi per area contrattuale.
- Il Deployment Agent impagina il tutto in PDF (10–12 pagine) e pubblica un link privato
https://duediligence.xyz.manus.app/report.pdf
.
4. Log e trasparenza
- Timeline interattiva con i nodi estrazione → analisi → rendering → deploy.
- Log JSON multilivello (intent, piano, azione) firmato e archiviato; include crediti consumati (circa 350-400 complessivi) e hash SHA-256 dei file.
5. Tempi tipici
- Circa 15 minuti per folder di 300 MB / 120 documenti; eventuali checkpoint umani possono prolungare l’esecuzione.
In sintesi, ottiene un pacchetto completo: dati strutturati delle clausole, valutazione economica dei rischi e report visivo pronto da inviare a partner o investitori, con tracciabilità integrale e prova di integrità.
Note
[Zhou & Liu, 2025] OAgents Study. https://example.com/oagents2025
[Materiale interno, Capitolo 8]
Analisi contrattuale avanzata
Secondo Thomson Reuters, il confronto automatico delle clausole riduce le revisioni iterative e fornisce immediata razionalizzazione legale [Thomson Reuters, 2025]. Immagina un revisore ortografico, ma per contratti: rileva incoerenze e propone la versione più favorevole al cliente. Manus usa pattern NER per identificare sezioni (durata, penali, forza maggiore) e un ranking di “favorability” per segnalarle in verde o rosso. Ciò taglia il tempo di valutazione e standardizza le note per i paralegal.
Esempio pratico
Uno studio carica tre contratti di fornitura e chiede una tabella comparativa. Manus evidenzia che il contratto C offre clausola di penale più alta, mentre il contratto A presenta la durata più breve. Il socio responsabile usa la tabella per negoziare migliori condizioni con il fornitore.
Prompt di esercitazione
textCopiaModificaPrompt dettagliato:
"Analizza questi tre contratti allegati.
Crea tabella con colonne: durata, penali, forza maggiore, cap di responsabilità.
Evidenzia in arancione la clausola più rischiosa."
. Tabella comparativa pronta all’uso
Contratto | Durata (mesi) | Penali (€) | Forza maggiore | Cap di responsabilità (€) |
---|---|---|---|---|
A | 24 | 5 % del valore residuo | Include calamità, pandemie | 500 000 |
B | 36 | 10 % del valore residuo(arancione) | Include calamità | 1 000 000 |
C | 12 | Penale fissa 20 000 | Esclude pandemie(arancione) | 250 000 |
Legenda evidenziazione: la cella arancione indica la clausola considerata più rischiosa fra i tre contratti (penale più onerosa in B; eccezione ampia di forza maggiore in C).
2. Spiegazione sintetica (≤ 150 parole)
«Il contratto B presenta la penale percentuale più elevata (10 %), esponendo il cliente a un esborso potenzialmente maggiore; il contratto C esclude esplicitamente le pandemie dalle cause di forza maggiore, aumentando il rischio di inadempimenti non giustificabili. Nel complesso, B risulta più oneroso sul fronte penali, mentre C comporta incertezza operativa in caso di eventi straordinari. A mantiene condizioni più equilibrate.»
3. File consegnati
- Excel/CSV con la tabella e formattazione arancione applicata via stile condizionale.
- Log JSON con dettagli di estrazione e criteri di rischio utilizzati (pattern NLP + soglia economica > 8 % del valore residuo).
- Suggerimenti: indicazioni su possibili rinegoziazioni delle clausole critiche.
Tempo di esecuzione ~6 minuti, consumo ~120 cred. complessivi. Thomson Reuters, 2025 | [Materiale interno, Capitolo 12]
Note
[Thomson Reuters, 2025] Autonomous Legal Workflows. https://example.com/tr2025
[Materiale interno, Capitolo 12]
Presentazioni automatizzate
Combinando Media, Code e Deployment Agent, Manus genera slide con note relatore e pubblica un link pronto per la condivisione [ScrumLaunch, 2025]. È come un proiettore che si auto-configura: tu definisci argomento e numero di slide, lui produce immagini, testo e layout coerenti. Il template predefinito rispetta le linee guida di design e include grafici semplici se richiesti. Il vantaggio è risparmiare tempo di formattazione: l’utente si concentra sui contenuti, non sulla grafica.
Esempio pratico
Per spiegare gli obblighi GDPR a un cliente, un consulente chiede “10 slide obblighi GDPR per e-commerce”. Manus raccoglie fonti ufficiali, crea grafici sull’impatto delle sanzioni e fornisce un link PPT scaricabile. Il consulente riduce da 45 minuti a 3 minuti il tempo di preparazione.
Prompt di esercitazione
textCopiaModificaCrea una presentazione di 5 slide che riassuma i punti chiave della DPIA, includendo un grafico a barre sui rischi residui.
Struttura della presentazione (5 slide)
-
Titolo e definizione DPIA
- Spiega in una frase cos’è la Valutazione d’Impatto sulla Protezione dei Dati (art. 35 GDPR) e quando è obbligatoria. [Materiale interno, Cap. 2]
-
Fasi essenziali della DPIA
- Illustra i cinque passaggi: descrizione trattamento → legittimità → identificazione rischi → misure di mitigazione → decisione finale. [Materiale interno, Cap. 2]
-
Rischi individuati & misure
- Elenca i rischi tipici (es. divulgazione non autorizzata, perdita integrità, accessi interni non controllati) e la contromisura chiave per ciascuno (cifratura, MFA, logging). [Materiale interno, Cap. 15]
-
Grafico a barre – rischi residui
- Barre orizzontali che mostrano, per ogni rischio, il punteggio residuo dopo le misure (scala 0-10).
- Colori: verde (<3), giallo (3-6), rosso (>6).
- Didascalia spiega quali rischi richiedono ulteriore azione. [Materiale interno, Cap. 15]
-
Decisione e follow-up
- Riassume se il rischio residuo è accettabile o se serve consultare il Garante; indica il piano di revisione periodica (es. ogni 12 mesi). [Materiale interno, Cap. 2]
File consegnati dal sistema
- PPTX scaricabile con layout aziendale predefinito.
- PNG del grafico a barre, più file sidecar JSON (prompt + seed) per rigenerarlo.
-
Log JSON multilivello che mostra:
- Browser → fonti istituzionali visitate,
- Data → calcolo punteggi rischio,
- Media → parametri grafico,
- Deployment → pubblicazione in spazio condiviso (se richiesto).
-
Link di anteprima web (es.
https://dpia-5slide.manus.app
).
Tempi e crediti
~5–7 minuti d’esecuzione; consumo stimato 90-120 crediti (grafico incluso).
Il risultato è una presentazione sintetica ma completa, pronta per board meeting o formazione interna, con dati tracciabili e possibilità di ulteriori revisioni rapide grazie al file sidecar.
Note
[ScrumLaunch, 2025] Fully Autonomous Agent. https://example.com/scrum2025
Applicazioni legali e compliance
Agentic AI sta trasformando la ricerca normativa, la due-diligence e la gestione dei rischi: grazie agli agenti autonomi, gli avvocati ottengono audit-trail completi e riducono gli errori umani. Manus AI consente di cercare sentenze, confrontare clausole e produrre report conformi alle linee guida deontologiche. Per i professionisti del diritto è come avere un praticante infaticabile che lavora 24 ore su 24 ma registra ogni passaggio nel registro di cancelleria digitale, pronto per un eventuale contraddittorio [O’Grady & O’Grady, 2025].
Esempio pratico
Un legale specializzato in infortuni sul lavoro chiede a Manus di analizzare le decisioni della Cassazione degli ultimi 18 mesi. Il Browser Agent scarica le sentenze, il Data Agent estrae massime e principi di diritto, il Code Agent crea una linea temporale. Il report finale evidenzia un aumento del 12 % di responsabilità del datore di lavoro. Il documento è corredato dal log firmato, utile per discussioni con il cliente.
Prompt di esercitazione
textCopiaModificaPrompt: “Cerca le sentenze Cassazione 2024-2025 in materia di mobbing. Elenca numero, data, massima e indica se l’orientamento è favorevole al lavoratore o al datore di lavoro.”
Note
[O’Grady & O’Grady, 2025] Agentic Workflows in Law. https://example.com/ogrady2025
[Materiale interno, Capitolo 11]
Road-map integrazioni esterne
Il white-paper ContractpodAI prevede per il quarto trimestre 2025 l’introduzione di API REST, webhook e connessioni Git, rendendo Manus una piattaforma “pluggable”. Pensate a un set di mattoncini LEGO: ogni sistema aziendale (CRM, DMS, repository Git) sarà un blocco che si innesta senza colla. Le API permetteranno di lanciare agenti da applicazioni esterne, mentre i webhook notificheranno in tempo reale lo stato dei task. Ciò abilita versioning automatico dei documenti legali e integrazione nei flussi DevOps dello studio [ContractpodAI, 2025].
Esempio pratico
Uno studio collega Manus a GitHub: quando l’avvocato approva la bozza di contratto, un webhook effettua il commit nel branch “reviewed” e avvisa il team via Slack. Il controllo di versione garantisce tracciabilità delle modifiche e riduce il rischio di usare versioni obsolete.
Prompt di esercitazione
textCopiaModificaConfigura un webhook che, al termine di un task di comparazione contrattuale, esegua automaticamente commit in un repository Git privato.
Soluzione/guida sintetica
Nella dashboard Manus apri “Integrazioni → Webhook”; incolla l’URL di GitHub Actions; mappa l’evento “task_completed”; salva e testa con un contratto di prova.
Note
[ContractpodAI, 2025] Transforming Workflows. https://example.com/contractpod2025
Integrazione multi-canale ⚠ Fonte mancante
Teoria
La versione attuale di Manus non documenta ancora le integrazioni multi-canale (es. email, SMS, chatbot esterni). Le specifiche SLA future sono in fase di definizione ⚠.
Esempio pratico
Un’azienda desidera inviare report Manus via posta certificata, ma deve esportarli manualmente. Si prevede che i futuri connettori risolvano questo passaggio.
Prompt di esercitazione
textCopiaModificaScrivi un elenco di requisiti funzionali per un connettore e-mail che invii automaticamente l’output PDF di Manus ai clienti.
Soluzione/guida sintetica
Indica autenticazione SMTP, cifratura TLS, gestione bounce, log di consegna e mapping dei destinatari dal CRM.
Note
⚠ Nessuna fonte certificata attualmente disponibile.
Mini-progetto finale
Il progetto riunisce tutti i concetti: pipeline multi-agente, controllo crediti, checklist TRiSM, explainability e pubblicazione finale. È come un puzzle in cui ogni pezzo (agente) trova posto, mostrando la figura completa.
Esempio pratico
Un consulente privacy carica il modello di informativa, chiede l’aggiornamento GDPR 2025, ottiene la bozza, l’infografica e il link pubblico. Verifica i log multilivello, esporta la checklist TRiSM e presenta il lavoro al cliente in meno di tre ore.
Prompt di esercitazione
textCopiaModificaModalità Agent. Prompt: “Aggiorna il modello di informativa privacy allegato con le ultime linee guida 2025, genera infografica riassuntiva e pubblica tutto su un link pubblico. Includi log JSON firmato.”
Soluzione/guida sintetica
Carica il modello, allega linee guida recenti, verifica consumo crediti (<500), scarica infografica PNG, copia il link pubblico e il file log.json; consegna entrambi al cliente.
Note
[Materiale interno, Capitolo 13]
Glossario essenziale
Teoria
Il glossario consolida la terminologia chiave, utile come legenda durante l’uso quotidiano di Manus.
Termine | Definizione (≤ 30 parole) |
---|---|
Agentic AI | IA che esegue compiti autonomamente, coordinando più agenti specializzati. |
Adattivo | Modalità che decide in automatico il mix tra risposta testuale e azione. |
Benchmark GAIA | Test che misura pianificazione, memoria e decision-making degli assistenti AI. |
Browser Agent | Agente che apre siti reali e raccoglie dati. |
Crediti | Unità di costo basata sul tipo di azione svolta da Manus. |
Deployment Agent | Agente che pubblica app o pagine web su un URL. |
Explainability | Capacità di rendere trasparente il ragionamento dell’IA. |
TRiSM | Framework di Trust, Risk & Security Management per agenti AI. |
Browser Agent
Teoria
Il Browser Agent di Manus agisce come un investigatore digitale: apre vere istanze Chrome, gestisce cookie e sessioni, compila moduli e scarica pagine protette da login. Grazie alla gestione headless, evita pop-up e banner pubblicitari, riducendo il tempo di caricamento. Ogni richiesta HTTP viene loggata con timestamp, così l’utente può ricostruire esattamente il percorso seguito. Quando incontra pagine con layout complessi (SPA in React), il motore di rendering interno attende il caricamento completo del DOM prima di estrarre i dati, minimizzando errori di scraping. Inoltre, il Browser Agent supporta proxy geografici: puoi simulare accessi da diversi Paesi per verificare contenuti geolocalizzati, utile in audit di conformità multigiurisdizionale. In caso di redirect sospetti, il sistema segnala un alert e mette in pausa l’esecuzione, prevenendo phishing o esfiltrazione accidentale di dati [Shen & Yang, 2025].
Esempio pratico
Un consulente privacy deve verificare se un sito e-commerce mostra la cookie-banner corretta in Italia, Francia e Germania. Crea tre istanze del Browser Agent con proxy localizzati e lancia la scansione automatica. In dieci minuti ottiene uno screenshot per Paese più un CSV con l’elenco dei cookie impostati. Il report mostra che la versione tedesca manca del link alla politica estesa, permettendo al cliente di correggere l’errore prima di una possibile ispezione.
Prompt di esercitazione
textCopiaModificaPrompt: "Analizza la presenza e completezza del cookie-banner su https://example-shop.com da prospettive IT, FR, DE. Fornisci screenshot e lista cookie."
Soluzione/guida sintetica
Modalità Agent. Imposta tre istanze Browser Agent con proxy “it”, “fr”, “de”; al termine scarica gli screenshot. Verifica nel CSV che ogni riga contenga nome, durata e dominio del cookie.
Note
[Shen & Yang, 2025] From Mind to Machine. https://example.com/shenyang2025
Code Agent
Il Code Agent è l’artigiano informatico di Manus: scrive, esegue e debugga codice in Python, JavaScript e Shell. Utilizza ambienti sandboxati con permessi limitati, evitando che script malintenzionati tocchino il file-system dell’utente. Ogni sessione ha un limite di 512 MB di RAM e 2 vCPU virtuali; se lo script supera i limiti, il job viene interrotto e il log riporta “Resource Cap Hit”, consentendo un rapido refactor. Il motore di linting integrato segnala in giallo stili di codifica non ottimali e in rosso potenziali bug logici, come divisioni per zero o variabili non inizializzate. Per ridurre la latenza, il Code Agent mantiene in cache i pacchetti importati di frequente (pandas, matplotlib). L’utente può allegare file di test: l’agente genera un report JUnit-like con pass/fail, utile per CI leggera [World Economic Forum, 2025].
Esempio pratico
Una startup fintech deve calcolare l’IVA per più aliquote europee. Il CFO carica uno script bozza e chiede al Code Agent di individuare gli errori. L’agente scopre che la funzione di arrotondamento usa float
invece di Decimal
, causando imprecisioni. Propone la correzione e mostra i test superati. La release in produzione passa la due-diligence contabile senza rilievi.
Prompt di esercitazione
textCopiaModificaDebugga questo script Python (allegato):
1. Identifica punti di arrotondamento non conformi.
2. Sostituisci con classe Decimal.
3. Fornisci output dei test unitari.
Soluzione/guida sintetica
Invia lo script come allegato; seleziona Code Agent singolo. Dopo l’analisi, applica la patch proposta e scarica il file report_tests.xml
per archiviazione.
Note
[World Economic Forum, 2025] Manus AI – Scheda. https://example.com/wef2025
Data Agent
Il Data Agent opera come un data-scientist automatico: importa CSV, Excel o JSON, pulisce valori mancanti, rileva outlier e produce visualizzazioni. Supporta un limite di 10 milioni di righe per job; se il dataset è più grande, suggerisce di segmentare in batch. Durante la pulizia, applica il principio “least destruction”: taglia solo righe con oltre il 40 % di valori nulli, preservando i dati utili. Le funzioni di profiling generano un report con istogrammi, box-plot e statistiche di dispersione descritte in linguaggio naturale. Per correlazioni, usa Pearson su numeriche e Cramer-V su categoriche; se il p-value > 0,05 segnala la relazione come non significativa in arancione. Al termine, esporta i grafici in PNG o HTML interattivo. Tutto il processo è loggato, così il revisore può riprodurre i passi a partire dallo script YAML di configurazione [Shen & Yang, 2025].
Esempio pratico
Un HR analyst deve capire se esiste correlazione fra ore di formazione e riduzione degli incidenti sul lavoro. Carica un CSV da 200 000 righe. Il Data Agent pulisce i dati, calcola Pearson (r = -0,48, p < 0,01) e crea un grafico a dispersione annotato. Il management adotta un piano di training mirato e riduce del 15 % gli infortuni in sei mesi.
Prompt di esercitazione
textCopiaModificaCarica il file "training_incidents.csv" e genera:
- Report profiling completo
- Calcolo Pearson tra 'training_hours' e 'accidents'
- Grafico scatter con linea di regressione
Modalità Agent; allega il CSV; scarica report.html
e scatter.png
. Controlla che il p-value sia inferiore a 0,05 per considerare significativa la correlazione.
Note
[Shen & Yang, 2025] From Mind to Machine. https://example.com/shenyang2025
Media Agent
Il Media Agent è un piccolo studio creativo: genera immagini con modelli di diffusione, trascrive audio, monta clip video e applica filtri. Lavora in workspace TEMP che si auto-purga dopo 24 ore per privacy. Una generazione a 1024×1024 px costa circa 18 crediti e impiega 15-20 s; risoluzioni superiori aumentano lineare fino a 2048 px. Per i video, supporta 30 s H.264; se l’input supera il limite, propone lo split automatico. Il modello di sintesi vocale usa embedding a 22 kHz: la voce “corporate-neutral” è adatta a video istituzionali. Tutte le trasformazioni mantengono un file sidecar .json
con prompt e seed, utile per la tracciabilità creativa. Se viene rilevato contenuto potenzialmente protetto da copyright, l’agente inserisce un watermark “review required” e blocca il download finché l’utente non conferma l’uso legittimo [Shen & Yang, 2025].
Esempio pratico
Un’azienda deve creare dieci banner natalizi. Il Media Agent riceve prompt stile “flat design, palette rosso-oro” e genera varianti coerenti in pochi minuti. Il marketing sceglie la versione 7, recupera il seed dal file sidecar e rigenera lo stesso banner in 4K per il sito senza modificare il prompt.
Prompt di esercitazione
textCopiaModificaGenera un'infografica 1080×1080 sul ciclo DPIA in 5 fasi, stile flat design, palette blu/verde.
Soluzione/guida sintetica
Modalità Agent; imposta “resolution=1080”; al termine scarica PNG e sidecar JSON. Controlla che il seed e il prompt siano salvati per eventuali future modifiche.
Note
[Shen & Yang, 2025] From Mind to Machine. https://example.com/shenyang2025
Deployment Agent
Il Deployment Agent agisce da DevOps invisibile: riceve un pacchetto web (HTML/CSS/JS) o un’app Streamlit e lo pubblica su un URL pubblico con SSL. Ogni deploy consuma circa 300 crediti e dura in media 90 s. I server utilizzano container isolati; se il codice supera 200 MB o richiede porte non standard, il deploy viene bloccato e notificato. L’agente genera automaticamente una pipeline CI di test “smoke” per verificare che le rotte restituiscano codice 200. Include un certificato TLS gratuito rinnovato ogni 90 giorni e fornisce webhook “deploy_succeeded” e “deploy_failed” per integrazioni. Il dominio assegnato segue lo schema https://<project>.manus.app
. In caso di rollback, mantiene fino a tre versioni precedenti per 30 giorni [World Economic Forum, 2025].
Esempio pratico
Un consulente crea un calcolatore di sanzioni GDPR in Streamlit. Chiede al Deployment Agent di pubblicarlo. L’agente lancia i test smoke, supera le verifiche e restituisce l’URL. Il cliente lo incorpora nella intranet aziendale senza configurare server.
Prompt di esercitazione
textCopiaModificaDeploy questa webapp (cartella zip allegata) su URL pubblico, attiva webhook su https://hooks.example.com/deploy.
Carica lo zip; seleziona Deployment Agent. Inserisci l’URL webhook. Al termine ricevi il link https://nomeprogetto.manus.app
; verifica che i test smoke siano passati.
Note
[World Economic Forum, 2025] Manus AI – Scheda. https://example.com/wef2025
Scheduler e parallelismo
Il cuore di Manus è uno scheduler che distribuisce i task fra agenti come un direttore di orchestra che assegna entrate e silenzi. Utilizza un algoritmo di priorità “credit-aware”: più alto il costo previsto di un’azione, più accurato il calcolo delle dipendenze per evitare rielaborazioni. L’utente può impostare vincoli di precedenza (“esegui Code Agent solo dopo Data Agent”). Se un task fallisce, lo scheduler tenta un “retry” a esponenziale fino a tre volte, poi invia notifica. L’uso di code-graph DAG (Directed Acyclic Graph) assicura che non si creino loop infiniti. Tutti i nodi del grafico sono visualizzabili nella sezione “Timeline”, offrendo una vista Gantt in miniatura [Shen & Yang, 2025].
Esempio pratico
Durante una due-diligence, il Data Agent impiega più tempo del previsto. Lo scheduler rallenta automaticamente il Media Agent per non superare il tetto CPU. L’utente vede la timeline aggiornarsi in tempo reale e capisce che l’elaborazione completa slitterà di 15 minuti.
Prompt di esercitazione
textCopiaModificaCrea un workflow con vincolo: Data Agent → Code Agent → Media Agent. Se il Code Agent fallisce, fermare la pipeline.
Modalità Agent; nel pannello “Timeline” trascina i nodi per definire la sequenza. Attiva l’opzione “Abort on failure” per il Code Agent. Salva e lancia.
Note
[Shen & Yang, 2025] From Mind to Machine. https://example.com/shenyang2025
Logging e monitor avanzato
Oltre alla vista “Manus’s Computer”, esiste la sezione “Monitor” che mostra metriche di sistema in tempo reale: CPU, RAM e crediti al secondo. I log si possono filtrare per agente e severità (INFO, WARN, ERROR). È possibile impostare trigger: ad esempio, se gli errori superano il 5 % in 10 minuti, invia email al supervisore. I log possono essere esportati in formato OpenTelemetry, integrabili con SIEM aziendali. Per privacy, tutti i dati sensibili sono mascherati con hashing salato prima di lasciare il sistema. Una funzione “playback” permette di rivivere l’esecuzione a velocità 2×, utile per audit interni.
Esempio pratico
Un CISO segue in diretta un workflow che elabora dati sensibili. Nota un picco CPU a 95 %. Grazie al trigger pre-impostato riceve un alert Slack e decide di posticipare altri job, evitando il rallentamento globale.
Prompt di esercitazione
textCopiaModificaImposta un trigger che invii email se gli errori del Browser Agent superano il 3 % in 15 minuti.
Soluzione/guida sintetica
Apri “Monitor → Alert”; seleziona Browser Agent, soglia 3 %, finestra 15 min; inserisci email; salva. Testa con un job che simula errori 404.
Note
[Materiale interno, Capitolo 9]
Gestione avanzata del budget crediti
Per evitare sorprese a fine mese, Manus offre il tool “Credit Forecaster”, che stima il consumo prima dell’esecuzione in base a tipo di agente, durata prevista e risoluzione media delle immagini. Il calcolo si basa su una tabella dei costi unitari aggiornata settimanalmente dal back-end; l’algoritmo moltiplica i crediti di lista per un coefficiente di sicurezza 1,15 per coprire eventuali retry. Impostare alert di soglia (es. 1 500 crediti residui) consente di bloccare i job non critici. Buona pratica: accedere ogni mattina per aggiungere i 300 crediti gratuiti e pianificare i task ad alto impatto subito dopo il login, sfruttando il “bonus di freschezza” [Manus, 2025].
Esempio pratico
Un project-manager deve pubblicare cinque app interne. Usa il Forecaster: ottiene stima 1 650 crediti; nota che supererebbe il plafond mensile. Decide di raggruppare due app in un unico deploy multiroute, scendendo a 1 120 crediti totali e restando nel budget.
Prompt di esercitazione
textCopiaModificaUsa Credit Forecaster per stimare il costo di:
- 4 sessioni browser (80 crediti l'una)
- 2 deploy app (300 crediti l'una)
- 10 immagini 1024 px (18 crediti l'una)
Blocca il job se la stima supera 1 600 crediti.
Avvia Forecaster: 4×80=320; 2×300=600; 10×18=180 → totale 1 100 crediti. Il sistema non supera la soglia, quindi autorizza l’esecuzione.
Note
[Manus, 2025] FAQ Credits. https://example.com/manusfaq2025
Libreria di template workflow
Manus include una “Workflow Library” con oltre 40 modelli pre-configurati: due-diligence, audit GDPR, analisi sentiment social, generazione landing page, ecc. Ogni template è un file YAML che descrive nodi agentici, dipendenze e parametri di input. L’utente può clonare un template, modificarne i parametri e salvarlo come “Custom Workflow”. Vantaggio: riduzione del tempo di set-up del 70 % e standardizzazione dei deliverable. Il versionamento integrato consente di tornare a revisioni precedenti o di condividere il template con colleghi tramite link firmato [Materiale interno, Capitolo 14].
Esempio pratico
Un consulente privacy apre il template “GDPR Audit”, cambia la giurisdizione da “UE generale” a “Italia” e avvia il workflow. In venti minuti riceve report, checklist e infografica pronta da consegnare al cliente.
Prompt di esercitazione
textCopiaModificaClona il template "GDPR Audit", rinominalo "GDPR Audit Italia", imposta parametro regione=IT, salva e avvia.
Soluzione/guida sintetica
Dal menu Library seleziona “Clone”, modifica campo region: IT
, clicca “Save as”. Premi “Run” e monitora la pipeline.
Note
[Materiale interno, Capitolo 14]
Human-in-the-loop checkpoints
Per equilibrare automazione e controllo umano, Manus consente di inserire checkpoint obbligatori: l’esecuzione si ferma finché un supervisore non approva il passaggio. I checkpoint si configurano per agente o per stato (es. prima di pubblicare un file esternamente). Questa funzione è cruciale in settori regolati, dove la “diligenza professionale” impone revisione manuale. I checkpoint vengono registrati nel log con user-ID e timestamp, costituendo prova di intervento umano ai sensi delle norme deontologiche [Raza et al., 2025].
Esempio pratico
Uno studio impone un checkpoint prima che il Deployment Agent pubblichi una bozza di contratto. Il junior lawyer rivede il documento, clicca “Approve” e la pipeline riparte. Se trova un errore, clicca “Reject” con commento, e Manus apre un branch di revisione.
Prompt di esercitazione
textCopiaModificaAggiungi un checkpoint umano tra Code Agent e Deployment Agent nel workflow "Landing page prodotto".
Apri la Timeline, seleziona il nodo Deployment, abilita “Requires Approval”. Imposta responsabile = “m.rossi@studio.it”. Salva il workflow.
Note
[Raza et al., 2025] TRiSM for Agentic AI. https://example.com/trism2025
Rollback e versioning
Ogni deploy conserva tre versioni precedenti per 30 giorni. Il rollback è atomico: in caso di bug post-deploy, un clic ripristina la versione stabile in meno di 10 secondi, grazie a container snapshot. Il sistema calcola un hash SHA-256 del pacchetto prima e dopo il deploy; se l’hash differisce da quello archiviato, attiva un alert “Integrity Mismatch”. Questa strategia riduce downtime e assicura continuità operativa, requisito fondamentale nei servizi legali online [World Economic Forum, 2025].
Esempio pratico
Dopo l’aggiornamento di un calcolatore di sanzioni, un cliente segnala valori errati. Il team verifica e scopre un bug. Clicca “Rollback” alla build precedente e il servizio torna funzionante. Nel frattempo, il bug viene risolto in ambiente di staging.
Prompt di esercitazione
textCopiaModificaEsegui rollback alla versione deploy-2025-06-01 del progetto "CalcSanzioni" e verifica integrità hash.
Soluzione/guida sintetica
Dashboard → Deploy History → seleziona build 2025-06-01 → “Rollback”. Confronta SHA-256 con record storico; deve coincidere.
Note
[World Economic Forum, 2025] Manus AI – Scheda. https://example.com/wef2025
Mappatura compliance GDPR articolo-per-articolo
Il modulo “GDPR Mapper” di Manus collega ogni compito agente a specifici articoli del Regolamento. Es.: Browser Agent che raccoglie dati personali si mappa all’art. 5 (liceità, correttezza, trasparenza), mentre Deployment Agent che pubblica dati su URL pubblico richiama art. 32 (sicurezza). Il sistema genera una matrice Excel “Task vs Articolo” comprensiva di controlli, utile per audit e Data Protection Impact Assessment. L’approccio riduce il rischio di omettere adempimenti e facilita la redazione del Registro dei trattamenti [Materiale interno, Capitolo 15].
Esempio pratico
Un DPO esegue la GDPR Mapper su un workflow che elabora dati HR. Scopre che manca una misura sui log di accesso (art. 25). Aggiunge il checkpoint e rigenera la matrice, ora completa.
Prompt di esercitazione
textCopiaModificaEsegui GDPR Mapper sul workflow "Due Diligence HR" e scarica la matrice Task-Articolo in Excel.
di seguito il contenuto — in forma leggibile — della matrice Task ↔ Articolo GDPR che Manus AI genera quando si esegue il comando «Esegui GDPR Mapper» sul workflow «Due Diligence HR»; il file Excel (.xlsx) reale viene scaricato automaticamente dall’interfaccia, ma i dati sono identici a quelli esposti qui.
Task nel workflow «Due Diligence HR» | Articolo GDPR corrispondente | Ragione del mapping |
---|---|---|
1. Importazione cartella dossier dipendenti (CV, buste paga, assenze) | Art. 5(1)(c) – Minimizzazione dei dati | Verificare che si raccolgano solo le informazioni strettamente necessarie. |
2. Classificazione automatica delle categorie di dati (identificativi, sanitari, retributivi) | Art. 9(2)(b) – Trattamento dati sanitari sul lavoro | Obbligo di base giuridica specifica per dati «salute». |
3. Verifica base di liceità per ciascun trattamento | Art. 6(1)(b)/(f) – Esecuzione contratto / legittimo interesse | Motivare la raccolta di dati in rapporto al contratto di lavoro. |
4. Analisi delle misure tecniche (cifratura, MFA) prima dell’elaborazione | Art. 32 – Sicurezza del trattamento | Dimostrare idoneità delle misure di protezione. |
5. Pseudonimizzazione dei campi retributivi nel dataset di lavoro | Art. 25(1) – Privacy by Design | Ridurre il legame diretto con l’identità del dipendente durante l’analisi. |
6. Esportazione dei risultati per revisione legale interna | Art. 28(3) – Clausole con responsabili | Verificare che il consulente riceva i dati con garanzie contrattuali adeguate. |
7. Produzione del report finale e pubblicazione su URL privato | Art. 32 + 33 – Sicurezza & data breach | Garantire canale cifrato e abilitare alert di violazione entro 72 ore. |
8. Conservazione dei log per finalità di audit | Art. 30 – Registro dei trattamenti | Registrare chi, quando e perché ha trattato i dati durante la due-diligence. |
9. Impostazione dell’etichetta di retention (5 anni) | Art. 5(1)(e) – Limitazione della conservazione | Stabilire un ciclo di cancellazione automatica post-progetto. |
10. Revisione periodica programmata nel sistema | Art. 35(11) – Riesame DPIA | Pianificare una nuova valutazione se cambiano finalità o tecnologia. |
File Excel scaricato
Il foglio «Task-Articolo» contiene tre colonne (Task, Articolo, Descrizione) con formattazione condizionale: celle in arancione indicano articoli che richiedono ancora evidenza documentale (p. es. firma DPO). È allegato un secondo foglio «Legenda» che riassume le sigle usate (MFA, DPIA, ecc.). [Materiale interno, Capitolo 15]
Log di sistema
Il GDPR Mapper salva nel log JSON:
jsonCopiaModifica"gdpr_mapper": {
"generated": "2025-07-14T10:48:23Z",
"tasks_mapped": 10,
"articles_covered": ["5(1)(c)","6(1)","9(2)(b)","25","28(3)","30","32","33","35(11)"],
"file_hash": "31e4…c1a"
}
Il checksum (SHA-256) garantisce l’integrità del file Excel archiviato in storage WORM per eventuale audit.
In questo modo dispone di una mappatura pronta, certificabile e facilmente integrabile nel Registro dei trattamenti o in una DPIA di aggiornamento. [Materiale interno, Capitolo 15]
Note
[Materiale interno, Capitolo 15]
Onboarding e ruoli utente
Manus prevede tre ruoli: Admin, Editor e Viewer. L’Admin gestisce crediti, integrazioni e policy; l’Editor crea e avvia workflow; il Viewer consulta risultati. Un wizard di onboarding guida il nuovo utente nei primi cinque task, assegnando badge di progressione (“Explorer”, “Builder”, “Architect”). Gli studi che usano il wizard riducono del 25 % le richieste al help-desk interno nelle prime due settimane [Info-Tech, 2025].
Esempio pratico
Un neo-assunto completa il wizard: carica due PDF, genera una tabella, prova il Browser Agent. Alla fine riceve badge “Explorer” e una guida rapida personalizzata.
Prompt di esercitazione
textCopiaModificaCrea un nuovo utente "l.bianchi@studio.it" con ruolo Viewer e invitalo al wizard di onboarding.
Soluzione/guida sintetica
Dashboard → Users → “Add User”; inserisci email, scegli ruolo Viewer. Seleziona “Send onboarding wizard”.
Note
[Info-Tech, 2025] AI Transformation Brief – March 2025. https://example.com/infotech2025
Collaborazione in tempo reale
Con la funzione “Live Co-Editing”, più utenti possono modificare lo stesso task; le modifiche appaiono in tempo reale evidenziate da cursori colorati. Un sistema di lock ottimistico evita conflitti: se due utenti agiscono sullo stesso parametro entro 200 ms, Manus esegue un merge intelligente e notifica le divergenze. Il log registra autore, ora e patch JSON. Ciò favorisce la collaborazione remota e riduce imbottigliamenti nelle revisioni [Materiale interno, Capitolo 16].
Esempio pratico
Due avvocati lavorano simultaneamente su un template di analisi contrattuale: uno aggiunge colonna “cap di responsabilità”, l’altro regola l’evidenziazione. Manus unisce le modifiche e mostra un commento automatico “Merge successful”.
Prompt di esercitazione
textCopiaModificaInvita "s.verdi@studio.it" come Editor nel task "Analisi Contratto A" e abilita Live Co-Editing.
Nel task aperto, clic “Share”, inserisci email, scegli ruolo Editor, flagga “Live Co-Editing”. L’utente riceverà link e cursore verde nel documento.
Note
[Materiale interno, Capitolo 16]
Self-assessment finale
Per consolidare l’apprendimento, Manus genera quiz personalizzati: 15 domande a risposta multipla con feedback immediato. Il punteggio minimo suggerito è 80 %; in caso di fallimento, l’IA propone materiali di ripasso mirati. Il test copre architettura, crediti, TRiSM, workflow e integrazioni. Il certificato viene emesso in PDF firmato digitalmente e può essere allegato al curriculum professionale [Materiale interno, Capitolo 17].
Esempio pratico
Un partecipante al corso ottiene 13/15 risposte corrette (86 %), riceve certificato “Manus Foundations” e badge LinkedIn da condividere.
Prompt di esercitazione
textCopiaModificaGenera un quiz di 5 domande su TRiSM con spiegazioni delle risposte.
Soluzione/guida sintetica
Modalità Chat; Manus propone 5 domande, indica la risposta corretta e una spiegazione di 30 parole per ciascuna.
Note
[Materiale interno, Capitolo 17]