Strumenti IA NextFEM

FATTI AIUTARE DALL’IA NELLA PROGETTAZIONE

AI Assistant v2

NextFEM Designer v2.7 integra il nuovo AI Assistant v2, che supporta gli strumenti NextFEM MCP (ora forniti con il programma). Può essere avviato dalla scheda Plugins.
Questo plugin mantiene il supporto per le semplici chiamate AI di modellazione nella v1 (vedere il capitolo seguente), tuttavia se ne consiglia l’uso esclusivo con gli strumenti MCP. La modalità MCP può essere attivata selezionando la casella di controllo “MCP tools” nella finestra principale.

Dopo aver selezionato la casella di controllo, attendere l’avvio del server MCP locale. Quando viene visualizzato il numero di strumenti MCP disponibili, è possibile procedere.

I provider supportati dalla versione v1 continuano a essere supportati. In generale, il client AI supporta il modello di chat OpenAI v1 o compatibili.

Provider Endpoint
OpenRouter https://openrouter.ai/api/v1
HuggingFace https://router.huggingface.co/v1
Groq https://api.groq.com/openai/v1
LM Studio http://localhost:1234/v1
Cohere https://api.cohere.com/v1

Si prega di notare che gli indirizzi degli endpoint da fornire sono diversi da quelli che dovevano essere forniti nella versione 1.

Infine, la versione 2 supporta la memorizzazione dell’indirizzo dell’endpoint, della chiave API e delle specifiche del modello di chat AI in un file CSV denominato “LLMkeys.csv” che può essere inserito nella cartella di installazione di NextFEM Designer.
Esempio di contenuto del file CSV:

#Endpoint;API key;Modelname
https://api.yourprovider.com/v1;apikey;gpt-4.1

Contattaci per ulteriori informazioni.

AI Assistant v1

Questo capitolo illustra come utilizzare il plugin AI Assistant v1 fornito con NextFEM Designer v.2.6.
Il plugin, gratuito per tutti, consente di utilizzare le API AI con NextFEM Designer. Gli utenti possono interagire tramite chat con i loro fornitori di IA preferiti, mentre il plugin comunica all’API di formattare la risposta in modo che possa essere letta dal plugin e convertita in comandi. In questo senso, il plugin agisce come un agente IA in NextFEM Designer.

Provider IA supportati

L’utente deve fornire la propria chiave API e l’indirizzo del server AI/LLM. Il plugin supporta nativamente tutte le API LLM simili a OpenAI ed è stato testato con:

Ciascuno dei link sopra riportati rimanda alla pagina da cui è possibile ottenere la chiave API. Inoltre, fare riferimento alla documentazione di ciascun provider per ottenere l’indirizzo del server e il nome del modello.

Di seguito sono riportati alcuni esempi:

Provider Endpoint Models
OpenRouter https://openrouter.ai/api/v1/chat/completions deepseek/deepseek-chat-v3-0324:free
qwen/qwen2.5-vl-32b-instruct:free
google/gemini-2.5-pro-exp-03-25:free
mistralai/mistral-small-3.1-24b-instruct:free
open-r1/olympiccoder-32b:free
google/gemma-3-4b-it:free
deepseek/deepseek-v3-base:free
HuggingFace https://router.huggingface.co/v1/chat/completions Qwen/Qwen2.5-VL-7B-Instruct

google/gemma-2-2b-it

deepseek-ai/DeepSeek-V3-0324

Groq https://api.groq.com/openai/v1/chat/completions llama-3.3-70b-versatile

and others…

LM Studio http://localhost:1234/v1/chat/completions claude-3.7-sonnet-reasoning-gemma3-12b

(all LM Studio models supported)
Cohere https://api.cohere.com/v2/chat command-a-03-2025

È possibile utilizzare anche altre API oltre a quelle sopra elencate, purché siano compatibili con OpenAI SDK.

Incolla la chiave API, il nome del server e del modello nelle caselle di testo appropriate e il gioco è fatto!

Agente e comandi

Il tuo messaggio viene trasmesso al server senza il contesto precedente (al fine di supportare anche i fornitori di API gratuite, alleggerendo il messaggio) assieme ad un messaggio di sistema che limita il formato di risposta. Se il server è sufficientemente potente (i modelli consigliati dovrebbero avere almeno 3 miliardi di parametri e una quantizzazione superiore o uguale a 4), il messaggio di sistema chiede anche all’LLM di non fornire spiegazioni leggibili dall’uomo, al fine di ridurre i token.

La chat viene sempre cancellata quando la chiave API, il server o il modello sono cambiati. Al server viene richiesto di rispondere con comandi NextFEM, che possono essere:

  • annullate con l’undo
  • eseguito anche solo parzialmente dall’utente, selezionando le righe da eseguire.

Questo aiuta l’utente a controllare cosa è stato modificato nel modello, anche ripetendo manualmente i comandi di modellazione. Fare clic con il tasto destro del mouse nella finestra di chat per aprire tali comandi.

Se l’LLM non riesce a fornire nodi e/o elementi validi, premi Annulla nel programma e riprova descrivendo meglio la tua richiesta nel prompt. Diversi LLM hanno comportamenti diversi, quindi lo stesso prompt che funziona con un determinato modello LLM potrebbe non funzionare con un altro.

Se condividi screenshot, ricordati di nascondere la tua chiave API e l’indirizzo del server!

NextFEM MCP server

Questa guida ti mostrerà come utilizzare il server MCP locale di NextFEM per:

Il server MCP è una semplice interfaccia che ti permette di connettere la tua installazione locale di NextFEM Designer al tuo provider AI preferito. Non hai bisogno di un piano a pagamento di Claude o GitHub Copilot, questo server funziona con la versione gratuita di entrambi i provider, così come con la versione gratuita di NextFEM Designer.

Versione 1.0.0.2- Data rilascio: 17 dicembre 2025
Versione 1.0.0.1- Data rilascio: 20 ottobre 2025
Versione 1.0.0.0 – Data rilascio: 08 ottobre 2025

Nota: dalla versione 2.7, il server MCP tools viene fornito e aggiornato con NextFEM Designer e si trova nella cartella di installazione.

Prerequisiti

NextFEM Designer dovrebbe essere già installato sul tuo sistema. Assicurati di attivare il server REST all’avvio del programma, attivando l’opzione mostrata di seguito.

 

Installazione in Claude Desktop (Windows)

Installa Claude Desktop per Windows.

Il server MCP consiste in un eseguibile che espone gli strumenti da connettere con l’AI. Questo è fornito dal nostro MCPserver.

1. Scarica l’eseguibile del server MCP NextFEM da qui. Quindi decomprimi il file .exe in una cartella nota e raggiungibile;

2. Configura Claude Desktop per caricare il server MCP all’avvio. Apri la cartella:

%appdata%\Claude

e fai doppio clic su claude_desktop_config.json per modificarlo.

Se non esiste, per favore non crearlo manualmente, ma, da dentro Claude Desktop, seleziona il pulsante File / Settings / Developers / Change configuration.

Quindi cambia il contenuto del file in:

{
    "mcpServers": {
        "NextFEM": {
            "command": "C:\\myPath\\NextFEMmcpServer.exe",
            "args": []
        }
    }
}

Ricorda di cambiare myPath con il percorso del server MCP.

3. È tutto qui. Riavvia NextFEM Designer e Claude Desktop. Vedrai un’icona con il numero di strumenti NextFEM Designer disponibili in Claude.

Guardalo in azione

Installazione in GitHub Copilot per Visual Studio Code (Windows)

1. Scarica l’eseguibile del server MCP NextFEM da qui. Quindi decomprimi il file .exe in una cartella nota e raggiungibile;

2. Configura Visual Studio Code per caricare il server MCP all’avvio. Modifica il file:

%appdata%\Code\User\mcp.json

con le seguenti righe:

{
	"servers": {
		"NextFEM": {
			"type": "stdio",
			"command": "C:\\myPath\\NextFEMmcpServer.exe",
			"args": []
		}
	},
	"inputs": []
}
Ricorda di cambiare myPath con il percorso del server MCP.
3. In Visual Studio Code, premi F1 e quindi digita MCP
quindi seleziona MCP: List Servers. Poi clicca sulla riga NextFEM e infine su Start server.
Hai finito. Inizia a usare Copilot come al solito; clicca sulla casella degli strumenti nell’angolo in basso a destra per verificare che gli strumenti MCP di NextFEM siano attivi.

Installazione in GitHub Copilot per Visual Studio 2022 (Windows)

1. Scarica l’eseguibile del server MCP NextFEM da qui. Quindi decomprimi il file .exe in una cartella nota e raggiungibile;

2. Configura Visual Studio 2022 aggiungendo il server MCP dall’icona degli strumenti nella chat di Copilot.

3. Dopo l’aggiunta, abilitare gli strumenti NextFEM.

Installazione in LM Studio (Windows)

1. Scarica l’eseguibile del server MCP NextFEM da qui. Quindi decomprimi il file .exe in una cartella nota e raggiungibile;

2. Configura LM Studio per caricare il server MCP assieme all’LLM che stai usando. Nella chat, clicca sul comando “Program” nella colonna di destra; poi clicca su “Edit mcp.json”.

Inserisci nel JSON le righe seguenti:

{
  "mcpServers": {
    "NextFEM": {
      "command": "C:\\myPath\\NextFEMmcpServer.exe"
    }
  }
}

Ricorda di cambiare myPath con il percorso del server MCP. Abilita infine lo stumento che appare sempre in colonna di destra (“mcp/next-fem”).

Note

  • Usa prompt chiari e circostanziati – ad esempio fai sempre riferimento almeno una volta a NextFEM Designer per forzare l’AI a usare gli strumenti MCP
  • Tieni presente che solo alcuni comandi selezionati nell’API di NextFEM sono disponibili come strumento. Evita di fare richieste non coperte dai comandi.