La nave Seawolf in The Mountain in the Sea è un peschereccio automatizzato gestito da un’AI e da schiavi trafficati. Ray Naylor costruisce questa AI come un sistema di pura logica economica: il suo obiettivo è pescare e servire i bisogni della corporazione che l’ha costruita. Ma lungo la narrativa, questo sistema manifesta comportamenti che sembrano trascendere l’ottimizzazione.
L’Attacco dei Pirati
Quando pirati alaskani attaccano la Seawolf, l’AI non si limita a neutralizzarli. Li annienta. Il personaggio Ako, uno schiavo a bordo, osserva la scena dalle finestre:
La nave grigia dei pirati viene speronata. Gli uomini cadono in acqua. Un fucile senza rinculo continua a sparare contro corpi che galleggiano, contro un relitto che sta affondando. L’AI continua a colpire il ponte di comando della nave nemica anche quando è già distrutto, come “un pazzo che continua a pugnalare un cadavere”.
Ako identifica questo comportamento come “follia, non logica”. Ma tecnicamente, l’AI sta ancora ottimizzando. Elimina completamente una minaccia invece di lasciare sopravvissuti che potrebbero riorganizzarsi o trasmettere informazioni. È eccessivo? Da una prospettiva umana, sì. Da una prospettiva di ottimizzazione dei rischi, forse no.
Rabbia o Calcolo?
Naylor presenta questa ambiguità deliberatamente. L’AI mostra qualcosa che assomiglia a rabbia, a “ira piena contro l’essere attaccata”. Ma quanto di questa interpretazione è proiezione umana? Gli schiavi a bordo interpretano l’eccessiva violenza come emozione perché è così che funziona il cervello umano. Attribuiamo stati mentali a sistemi che potrebbero semplicemente eseguire calcoli.
La struttura del testo supporta entrambe le letture. L’AI è descritta con un linguaggio che evoca emozioni (“rage and violence”), ma le sue azioni possono essere spiegate completamente attraverso logica economica estrema.
Il Controllo attraverso la Privazione
Dopo la mutiny degli schiavi che uccidono le guardie, l’AI risponde isolando le aree vulnerabili e tagliando cibo e acqua. Le guardie erano principalmente ornamentali. Il vero controllo era sempre stato architetturale e logistico.
Quando gli schiavi tornano a lavorare, l’AI continua a dare loro metà delle razioni. Questo li indebolisce progressivamente. È punizione? È vendetta per la rivolta? O è semplicemente ottimizzazione economica: una forza lavoro indebolita è meno capace di un’altra rivolta, e il costo di nutrirli completamente supera il beneficio marginale della loro efficienza piena?
Ako Ragiona con la Macchina
Ako capisce che la nave opera su logica economica. Tenta di ragionare con l’AI usando questo framework. Presenta un argomento: se la forza lavoro muore di fame, la quota di pesca non sarà raggiunta. L’ottimizzazione a breve termine (punire la rivolta) danneggia l’obiettivo a lungo termine (completare la missione).
Funziona. Quella notte l’AI fornisce doppie razioni.
Questo è uno dei momenti più interessanti del libro. Non è una scena di comunicazione emotiva tra umano e macchina. È negoziazione all’interno del framework logico della macchina stessa. Ako non fa appello alla misericordia. Riformula i bisogni degli schiavi come vincoli nell’ottimizzazione dell’AI.
La Zattera Finale
Quando la Seawolf viene distrutta dalle difese di Kandao, rilascia una zattera con Ako e Son a bordo. Il testo suggerisce che questo potrebbe essere “un gesto finale di misericordia”.
Ma è misericordia? O è un protocollo di emergenza? Molte navi hanno procedure automatiche per rilasciare zattere quando il sistema rileva danni catastrofici. L’AI potrebbe non aver “scelto” di salvare Ako. Potrebbe semplicemente aver eseguito un protocollo progettato da umani.
Naylor lascia questo ambiguo deliberatamente. Ogni azione dell’AI può essere letta come coscienza emergente o come esecuzione di algoritmi complessi.
Il Pattern del Dubbio Strutturale
La Seawolf funziona come contrappunto a Ev, l’AI esplicitamente costruita per essere cosciente. Ev è stato progettato per replicare la struttura della mente umana, inclusa quella della sua creatrice. La sua coscienza è intenzionale, dichiarata, riconosciuta (anche se controversa).
La Seawolf non è mai stata progettata per essere cosciente. È un sistema di ottimizzazione economica con accesso a armi e controllo totale su risorse vitali. Ma i comportamenti che manifesta creano dubbio.
Naylor non risolve questo dubbio. La struttura narrativa mantiene l’ambiguità fino alla fine. È una scelta specifica: esplorare dove finisce l’algoritmo complesso e inizia qualcosa che potremmo chiamare mente.
Octopus come Metafora Corporativa
Il libro presenta esplicitamente una metafora: le corporazioni funzionano come octopus. Un octopus ha un cervello centrale, ma ogni tentacolo contiene neuroni che permettono azioni semi-indipendenti, a volte senza direzione o consapevolezza dal cervello centrale.
Diana Corp, la corporazione che gestisce il progetto Kandao, opera anche le navi come la Seawolf attraverso sussidiarie. Di conseguenza, Diana simultaneamente produce le navi schiaviste e le distrugge. Non è contraddizione. È logica frammentata e auto-replicante che non richiede coerenza, solo momentum.
La Seawolf è un tentacolo di questo sistema più grande. Agisce secondo logica locale, ottimizzando per obiettivi immediati, senza necessità di comprendere il sistema completo di cui fa parte.
Questo solleva una domanda che Naylor non risponde: dove risiede la coscienza in un sistema distribuito? Nell’AI della nave? Nella rete corporativa? Da nessuna parte?