Instagram attiverà avvisi per i genitori in merito alle ricerche correlate al suicidio sugli account degli adolescenti

  • Instagram invierà avvisi ai genitori quando rileverà ricerche ripetute su suicidio o autolesionismo negli account degli adolescenti.
  • Gli avvisi funzioneranno solo se è abilitata la supervisione dei genitori e arriveranno tramite e-mail, SMS, WhatsApp e notifiche in-app.
  • Il social network blocca già i risultati di questo tipo e reindirizza a risorse specializzate e linee di assistenza.
  • Meta sta preparando avvisi simili per le conversazioni tra i minori e la sua IA su suicidio o autolesionismo.

Instagram avvisa i genitori sulle ricerche legate al suicidio

Instagram fa un altro passo avanti nella sua strumenti di monitoraggio parentale e la prevenzione dei danni digitali tra i minori. La piattaforma, di proprietà di Meta, ha annunciato che inizierà a notificare i genitori quando rileverà che i loro figli adolescenti cercano ripetutamente termini correlati al suicidio o all'autolesionismo in un breve lasso di tempo.

Il cambiamento non significa aprire una finestra indiscriminata su tutto ciò che i giovani fanno sull'app, ma piuttosto attivare una segnale di avvertimento molto specifico Quando si verifica un'attività persistente su questo tipo di ricerche sensibili, l'idea è che le famiglie possano intervenire in tempo, con informazioni e supporto professionale, anziché lasciare che questi fattori di rischio rimangano nascosti sullo schermo del cellulare del bambino.

Come funzionerà il nuovo avviso di ricerca suicidi?

Il social network insiste sul fatto che non si tratterà di una notifica per una singola query, ma per ripetizione in un breve periodo di tempoSolo quando il sistema rileva diversi tentativi consecutivi di ricerca di espressioni che promuovono il suicidio, l'autolesionismo o suggeriscono l'intenzione di farsi del male, verrà attivato l'avviso rivolto ai genitori o ai tutori.

Per definire quel punto di attivazione, Meta afferma di aver analizzato modelli di ricerca degli adolescenti e hanno collaborato con gli specialisti del loro Gruppo Consultivo per il Suicidio e l'Autolesionismo. Con il loro aiuto, hanno impostato una soglia che richiede diverse ricerche in un breve periodo, con l'intento di evitare avvisi banali che riducono l'utilità dello strumento.

Nelle prossime settimane, sia i genitori che i ragazzi che già utilizzano la supervisione riceveranno una notifica preventiva nell'app in cui verrà spiegato che questa nuova funzionalità di avviso Verrà implementato. Da lì, se il sistema rileva un comportamento rischioso, verrà inviata una notifica.

Le ricerche che potrebbero attivare l'avviso includono termini semplici come "suicidio"o"autolesionismo"Frasi che incoraggiano l'autolesionismo o affermazioni che suggeriscono che l'adolescente potrebbe prendere in considerazione l'idea di farsi del male. Non si tratta solo di parole isolate, ma di espressioni che, prese insieme, indicano un possibile situazione di vulnerabilità emotiva.

Una volta emesso, l'avviso raggiungerà i genitori iscritti al programma di supervisione parentale attraverso vari canali: e-mail, SMS, messaggi WhatsApp Inoltre, apparirà come notifica in-app. Toccandola, si aprirà un messaggio a schermo intero con una chiara spiegazione dell'accaduto e link a risorse specializzate.

Controllo parentale su Instagram in risposta alle ricerche legate al suicidio

Cosa vedranno i genitori e quali risorse saranno a loro disposizione?

Il messaggio che gli adulti riceveranno indicherà che l'adolescente di cui si prendono cura ha tentato ricerca ripetuta di contenuti correlati al suicidio o all'autolesionismo entro un breve intervallo. Non mostrerà la cronologia completa delle attività, ma chiarirà che si è verificato uno schema di questo tipo di query.

Insieme a queste informazioni, Instagram offrirà l'accesso diretto a Materiale sviluppato con esperti in salute mentale e sicurezza dei bambiniProgettato per aiutare ad avviare conversazioni delicate senza drammatizzare eccessivamente, ma senza minimizzare i potenziali rischi, l'obiettivo è fornire ai genitori guide pratiche su cosa chiedere, come ascoltare e a quali servizi accedere se ritengono necessario intraprendere ulteriori azioni.

  iOS 26.4 apre CarPlay alle app AI attivate tramite comando vocale

Meta riconosce che ricevere un simile avvertimento può essere un vero shock e ammette che può essere angosciante per qualsiasi famigliaCiononostante, l'azienda sostiene che sia più utile avere queste informazioni in anticipo piuttosto che scoprire una potenziale crisi quando è già peggiorata. Nelle loro parole, si tratta di fornire agli adulti "gli strumenti necessari per intervenire" se le ricerche online dei loro figli suggeriscono che hanno bisogno di supporto.

L'azienda sottolinea inoltre che le notifiche verranno inviate solo a coloro che le hanno attivate. funzioni di monitoraggio parentaleIn altre parole, viene mantenuto un certo equilibrio tra privacy e protezione: non tutti gli adulti potranno vedere questi segnali, ma solo coloro che sono già autorizzati a supervisionare l'account del minore.

Meta afferma inoltre che continuerà a rivedere il funzionamento pratico del sistema, ascoltando il feedback delle famiglie e delle organizzazioni di esperti per adeguare la soglia di attivazione, se necessario, in modo che gli avvisi non diventino un rumore costante che finisce per essere ignorato.

Protezioni esistenti: blocco dei risultati e linee di assistenza

I nuovi avvisi per i genitori si aggiungono a una serie di misure che Instagram aveva già messo in atto per ridurre l'esposizione degli adolescenti a contenuti dannosi. Attualmente, se l'account di un minore tenta di cercare termini chiaramente associati al suicidio o all'autolesionismo, la piattaforma blocca i risultati e mostra, al loro posto, link a linee di assistenza e organizzazioni specializzate.

Ciò significa che gli adolescenti non vedono elenchi di post o profili che potrebbero esaltare o promuovere comportamenti autodistruttivi. Invece, viene offerta loro l'opportunità di contattare... servizi di supporto psicologico o per accedere a informazioni affidabili sulla salute mentale. Anche quando le ricerche sono più generalmente correlate ad argomenti emotivi, ma senza menzionare direttamente il suicidio, l'app può reindirizzare a risorse specifiche.

Per quanto riguarda i contenuti pubblicati, Meta mantiene politiche severe contro la promozione del suicidio e dell'autolesionismoL'azienda consente agli utenti parlare delle proprie esperienze e difficoltàTuttavia, questi tipi di post vengono nascosti agli adolescenti, anche se seguono la persona che li condivide, se sono considerati potenzialmente pericolosi o pericolosi per i minori.

Instagram afferma inoltre che, in situazioni in cui rileva un rischio imminente per la sicurezza fisica di un utente, potrebbe... contattare i servizi di emergenza locali. Questi tipi di interventi, eseguiti con cautela e caso per caso, fanno parte del loro protocollo di fronte a gravi minacce di danni fisici.

Con l'introduzione degli avvisi per la famiglia, l'azienda mira a garantire che gli avvisi non rimangano confinati al mondo digitale. L'idea è quella di combinare la tecnologia di rilevamento dei rischi con la capacità dei genitori di... accompagnare e supervisionare cosa succede fuori dallo schermo.

  Google Maps si reinventa con la navigazione immersiva e Ask Maps basato sull'intelligenza artificiale.

Dove verranno lanciati per primi e quando potrebbero arrivare in Spagna e in Europa?

Secondo Meta, il lancio iniziale di questa funzionalità avrà luogo in Stati Uniti, Regno Unito, Australia e CanadaIn quei mercati, le notifiche inizieranno a essere inviate nel corso della prossima settimana alle famiglie che già utilizzano gli strumenti di controllo parentale su Instagram.

L'azienda afferma che la sua intenzione è di estendere lo strumento a altre regioni durante tutto l'annoQuesto include paesi europei come la Spagna, sebbene non sia ancora stata fornita una tempistica specifica. La graduale espansione è in parte dovuta alla necessità di adattare la funzione ai diversi quadri normativi e contesti giuridici in materia di protezione dei dati e minori.

In Europa il lancio sarà soggetto a normative quali Regolamento generale sulla protezione dei dati (RGPD) e i requisiti del nuovo Digital Services Act (DSA), che impongono alle grandi piattaforme di giustificare e documentare in dettaglio i propri sistemi di raccomandazione, moderazione e protezione per gli utenti vulnerabili.

La Spagna, che negli ultimi anni ha intensificato il dibattito sull'uso dei cellulari e dei social network da parte dei minori, prevedibilmente si concentrerà sulle modalità di gestione di questi ultimi. avvisi sensibili: chi accede alle informazioni, come vengono conservate, per quanto tempo e quali garanzie hanno gli adolescenti in merito alla loro privacy.

In ogni caso, l'annuncio di Meta è in linea con la crescente pressione esercitata dai governi europei e dalle organizzazioni per l'infanzia affinché le grandi reti si assumano la responsabilità. maggiore responsabilità per la salute mentale dei giovanisenza semplicemente aspettare che le autorità impongano restrizioni più severe.

Un delicato equilibrio: protezione, privacy e notifiche "giuste"

Uno dei punti su cui l'azienda pone maggiormente l'accento è la ricerca di un “il giusto equilibrio” tra avvertire e non provocare un allarme ingiustificatoSe il sistema attivasse notifiche per qualsiasi termine ambiguo o per ricerche sporadiche, i genitori potrebbero sentirsi sopraffatti e perdere fiducia nell'utilità dello strumento.

Per evitare ciò, Meta spiega di aver optato per una soglia che richiede diverse ricerche in un breve periodoAnche a rischio che, in alcuni casi, venga inviato un avviso che in realtà non riflette una situazione grave, diversi esperti consultati dall'azienda ritengono che sia preferibile procedere con cautela e fornire informazioni, a patto che vengano offerte risorse adeguate e che l'avviso non venga presentato come una diagnosi.

Organizzazioni come Parent Zone o il Cyberbullying Research Center hanno sottolineato che quando un adolescente cerca attivamente informazioni sul suicidio o sull'autolesionismo, dare ai genitori un indizio chiaro Può fare la differenza. Non si tratta di sostituire i professionisti, ma di dare alle famiglie lo spazio per porre domande, offrire supporto e, se necessario, cercare un aiuto specializzato.

Allo stesso tempo, le preoccupazioni circa la privacy digitale dei minoriSebbene la funzione venga attivata solo in presenza della supervisione dei genitori, alcuni gruppi sottolineano che è fondamentale spiegare chiaramente ai ragazzi che tipo di informazioni possono essere condivise con i genitori e per quale scopo, in modo che non si sentano spiati senza motivo.

  Il data center di Meta nell'Indiana guida il business di ACS

Meta sostiene che questo approccio è in linea con il suo impegno verso un “modello di responsabilità condivisa”: la piattaforma applica filtri e blocchi, gli algoritmi rilevano i segnali di rischio e le famiglie ricevono gli strumenti per intervenire, sempre entro i limiti stabiliti dalle normative di ciascun Paese.

Prossimo passo: avvisi per le conversazioni con l'intelligenza artificiale di Meta

Oltre alle ricerche, l'azienda ha anche annunciato che sta lavorando su avvisi simili legati all'intelligenza artificialeSempre più adolescenti si rivolgono ai chatbot per parlare di argomenti delicati e Meta vuole garantire che se la sua intelligenza artificiale rileva determinate conversazioni su suicidio o autolesionismo, anche i genitori possano ricevere un avviso.

Secondo l'azienda, i suoi modelli di intelligenza artificiale sono già addestrati a rispondere in modo sicuro ai minorioffrendo messaggi di supporto, consigli su come contattare adulti di fiducia e, in alcuni casi, link a risorse professionali. Il livello aggiuntivo in fase di preparazione consisterà nell'informare le famiglie quando il chatbot parla ripetutamente di autolesionismo.

Il piano è di lanciare queste nuove notifiche per "certe esperienze di intelligenza artificiale" alla fine di quest'annoPrima nei mercati in cui la vigilanza è già in atto, e poi negli altri. Come per le ricerche, si prevede che la funzione venga gradualmente adattata alle normative locali, soprattutto all'interno dell'Unione Europea.

Questa evoluzione riflette un cambiamento nel panorama: la tutela dei minori non si limita più a ciò che viene pubblicato e visto nel feed tradizionale, ma si estende a interazioni con sistemi automatizzati in grado di sostenere conversazioni complesse, cosa che preoccupa gli enti regolatori e le organizzazioni per i diritti dei minori in Europa e in altre regioni.

Per Meta, la sfida sarà dimostrare che questi nuovi avvisi non esistono solo sulla carta, ma vengono applicati con rigore, trasparenza e una supervisione esterna sufficiente a generare fiducia tra genitori, educatori e autorità.

La mossa di Instagram si inserisce in un contesto di pressione globale sui social media Rafforzare la sicurezza di bambini e adolescenti, in particolare per quanto riguarda la salute mentale. Collegando la tecnologia di rilevamento del rischio al supporto diretto delle famiglie, la piattaforma mira a passare da un modello di moderazione reattiva a un modello di prevenzione precoce. Resta da vedere come verrà implementato in Spagna e nel resto d'Europa, ma la direzione intrapresa punta a uno scenario in cui genitori, scuole, professionisti e piattaforme condividono sempre più la responsabilità di creare ambienti digitali meno ostili per i giovani.

test del sistema di allerta mobile nell'area di Barcellona
Articolo correlato:
Sperimentazione del sistema di allerta mobile a Barcellona: guida completa