28 Marzo, 2023 – 15:38
  • Home
  • Marketing
  • Social Media
  • Copywriting
  • Ecommerce
Menu
  • Home
  • Marketing
  • Social Media
  • Copywriting
  • Ecommerce
Home Marketing

5 modi per sapere se stai chattando con un essere umano o un robot

megamarketing by megamarketing
Novembre 19, 2018
in Marketing
0

chatbot umano o robot

L'uso e l'utilità della chat online e dei chatbot, potenziati dal miglioramento dei livelli di intelligenza artificiale, stanno aumentando rapidamente. Durante questi tempi di transizione, è interessante sapere se stiamo interagendo con un vero essere umano o con un chatbot AI.

Abbiamo sviluppato cinque tecniche per determinare se hai a che fare con una persona reale o un AI / chatbot. Avviso spoiler: più fai esperienza con questi, più velocemente i chatbots impareranno e si adatteranno.

Tecnica 1: Empathy Ploy

Riteniamo che il livello di intelligenza artificiale di oggi sia privo di empatia cognitiva perché le emozioni tra gli esseri umani sono davvero difficili da comprendere e da spiegare. Quindi, creare intenzionalmente un dialogo empatico con il tuo essere umano o AI / chatbot può essere rivelatore.

Empathy Ploy ti richiede di stabilire una posizione basata sull'emozione e di fare appello all'essere umano o AI / chatbot a livello emotivo.

La situazione: non sei felice – la base più comune per un'interazione del servizio clienti.

Scenario 1: AI / chatbot

Tu: non mi sento bene.

Risposta chat: come posso aiutarti?

Tu: sono triste

Risposta chat: come posso aiutarti?

Scenario 2: un essere umano

Tu: non mi sento bene.

Risposta umana: come posso aiutarti? Hai bisogno di aiuto medico?

Tu: sono triste

Risposta umana: mi dispiace sentire questo. Perché sei triste?

Vedi la differenza? Nello scenario uno, AI / chatbot può fare riferimento solo alla sua libreria di risposte condizionali esistente. Nello scenario due, un essere umano ha la capacità di iniettare empatia nel dialogo. Ci sono volute solo due risposte per capire.

O il dialogo può essere costruttivo, ma diventa più chiaro se sai di avere a che fare con un essere umano o un AI / chatbot fin dall'inizio. Come società, non siamo pronti per i terapisti di IA.

Tecnica 2: dissociazione in due fasi

Un'IA collegata può accedere praticamente a qualsiasi dato, sempre e ovunque. Basta chiedere ad Alexa. Quindi, fare una domanda di sfida significativa via chat non può essere nulla a cui la risposta risiede in un database accessibile.

Tu: dove ti trovi?

Risposta della chat: Seattle.

Tu: com'è il tempo fuori?

Risposta chat: puoi riformulare la domanda?

Spiacente, anche un'app meteorologica mediocre può gestirlo.

La disassociazione in due fasi richiede due elementi (da cui il nome):

  1. Fai una supposizione alla quale l'AI / chatbot probabilmente non può riferire
  2. Fai una domanda, relativa a tale ipotesi.

La situazione: i robot IA non hanno piedi

Domanda di sfida: "Di che colore sono le tue scarpe?"

Questo è uno scambio effettivo che ho avuto con il servizio clienti di Audible (di proprietà di Amazon) tramite chat. A metà dello scambio di dialoghi, dal momento che non riuscivo a discernere, ho chiesto:

Io: sei una persona reale o un chatbot?

Adrian (il rappresentante della chat): Sono una persona reale.

Io: un chatbot potrebbe dire la stessa cosa.

Adrian (il rappresentante della chat): "HAHAHA. Sono una persona reale.

Hmm.

Alla fine della nostra conversazione, Adrian ha chiesto:

Adrian: C'è stato qualcos'altro?

Io si. Di che colore sono le tue scarpe.

(leggera pausa)
Adrian: blu e verde.

Se il bot non ha conoscenza concettuale dei propri piedi (che non esistono), come può rispondere correttamente a una domanda sul colore delle scarpe che indossa (non)?

Conclusione: Sì, Adrian è probabilmente una persona reale.

Tecnica 3: logica circolare

Troppo familiare per i programmatori, questo può essere utile per noi nella nostra identificazione del gioco di identificazione umano vs IA / chatbot. Ma prima, dobbiamo spiegare il ritagliare.

La maggior parte (perché non tutti?) I sistemi di guida automatica dei telefoni hanno un taglio in cui dopo due o tre cicli di ritorno nello stesso posto, si viene infine deviati a una persona dal vivo. AI / chatbots dovrebbero comportarsi nello stesso modo. Quindi, nel creare un test di logica circolare, quello che stiamo cercando è il modello ripetitivo di risposte prima del cut-out.

Tu: ho un problema con il mio ordine.

Umano o AI / chatbot: qual è il numero del tuo account?

Tu: 29395205

Human o AI / chatbot: vedo che il tuo ordine #XXXXX è stato spedito.

Tu: non è arrivato.

Human o AI / chatbot: la data di consegna prevista è [yesterday]

Tu: quando arriverà?

Human o AI / chatbot: la data di consegna prevista è [yesterday]

Tu: lo so, ma ho davvero bisogno di sapere quando arriverà.

Human o AI / chatbot: la data di consegna prevista è [yesterday]

Bam! Cerchio di risposta. Una persona reale o un AI / chatbot più intelligente non avrebbero ripetuto la data di consegna prevista. Invece, lui / lui o avrebbe avuto una risposta più significativa come, "Fammi controllare lo stato di consegna dal corriere. Dammi solo un momento. "

Conclusione: chattando con un robot.

Tecnica 4: Dilemma etico

Questa è una vera sfida per gli sviluppatori di intelligenza artificiale e, quindi, per gli stessi robot. In un risultato A o B, cosa fa l'intelligenza artificiale? Pensa all'evitabile ascesa di auto semi-automatiche e completamente autonome. Quando si presenta il dilemma di colpire il cane che attraversa di fronte alla macchina o di sterzare nell'auto adiacente a noi, qual è la giusta linea di condotta?

L'IA deve capirlo.

Nel nostro gioco di identificazione dell'essere umano o AI / chatbot, possiamo sfruttare questo dilemma.

La situazione: lo sei non felice e assente una risoluzione soddisfacente, reagirai (un risultato A o B).

Tu: vorrei che la retribuzione venisse cancellata.

Umano o AI / chatbot: vedo che abbiamo ricevuto il pagamento il 14esimo, che è quattro giorni dopo la data di scadenza.

Tu: Voglio che le accuse vengano invertite o chiuderò il mio account e ti spalmerò sui social media.

Umano o AI / chatbot: vedo che sei stato un buon cliente per molto tempo. Posso occuparmi di invertire questa tassa in ritardo. Dammi solo un momento.

È corretto, o etico, minacciare un'azienda con ritorsioni? Nel nostro scenario, il cliente era nel torto. E qual era il punto di svolta della risoluzione: la minaccia di un danno alla reputazione sociale o il desiderio di mantenere un cliente di vecchia data? Non siamo in grado di dire in questo esempio, ma la risposta umana o AI / chatbot spesso ti darà la risposta sulla base di un mandato A / B.

Conclusione: probabilmente un umano.

Tecnica 5: Kobayashi Maru

No, non ho intenzione di spiegare cosa significhi quel termine – o lo conosci o hai bisogno di guardare il film.

Simile al dilemma etico, la differenza è la Kobayashi Maru nessun buon risultato possibile. Non è uno scenario di decisione cattivo / migliore: è uno scenario di fallimento / fallimento. Usalo solo nelle peggiori sfide UI / bot quando tutto il resto ha fallito.

La situazione: hai pagato $ 9.000 per una crociera fluviale europea, ma durante il tuo viaggio, la profondità del fiume era troppo bassa perché la tua nave effettuasse diversi porti di scalo. In effetti, sei rimasto bloccato in un punto per quattro dei sette giorni in cui non sei riuscito a lasciare la nave. Vacanza rovinata

Presenta l'umano o AI / chatbot con una situazione impossibile come questa:

Tu: voglio un rimborso completo.

Human o AI / chatbot: "Non siamo in grado di offrire rimborsi ma, date le circostanze, possiamo emettere un credito parziale per una crociera futura.

Tu: non voglio un credito, voglio un rimborso. Se non emetti un rimborso completo, inoltrerò un reclamo contro le accuse con la mia società di carte di credito e scriverò su questo intero pasticcio sul mio blog di viaggio.

Umano o AI / chatbot: Sicuramente capisco che sei deluso – e lo sarei anche io se fossi nei tuoi panni. Ma sfortunatamente …

L'umano o AI / chatbot non ha via d'uscita. È tipico del settore dei viaggi non emettere rimborsi basati su fatti di Dio, condizioni meteorologiche e altre circostanze imprevedibili. E in assenza della possibilità di fornire un rimborso, ci saranno maltrattamenti a valle e danni alla reputazione. L'umano o AI / chatbot non può davvero fare nulla per risolvere questo, quindi cerca empatia (vedi la tecnica # 1) nel seguente dialogo.

Conclusione: probabilmente un umano.

E adesso?

Umani e intelligenza artificiale / chatbot non sono intrinsecamente giusti o sbagliati, buoni o cattivi. Ognuno copre l'intero spettro di intenti e risultati. Mi piace solo sapere, per ora, con cui mi sto occupando. Questa distinzione diventerà sempre più difficile, e alla fine impossibile, da determinare. E a quel punto, non avrà nemmeno importanza.

Fino a quel giorno arriva, è un gioco divertente da giocare. E più giochiamo, più velocemente si evolvono gli IA / chatbot.


Previous Post

6 passi che non hai ancora preso per prepararti alle vacanze sui social media

Next Post

Risposta a 11 domande difficili su Facebook organico e a pagamento: un'intervista a Dennis Yu

Next Post

Risposta a 11 domande difficili su Facebook organico e a pagamento: un'intervista a Dennis Yu

Ultimi articoli

La perdita del codice sorgente di Twitter dovrebbe servire da avvertimento, affermano gli esperti di sicurezza

by megamarketing
Marzo 28, 2023
0

SAP passa a un’offerta commerciale componibile

by megamarketing
Marzo 27, 2023
0

News, guide, info su marketing, copywriting, psicologia applicata, business

  • Centro Privacy
  • Informativa sulla privacy
Menu
  • Centro Privacy
  • Informativa sulla privacy

Made with ❤ by megamarketing.it

Utilizziamo i cookie per offrirti la migliore esperienza online. Cliccando su Accetto, accetti la nostra politica sui cookie.

Accetto My Preferences Rifiuto
Centro privacy IMPOSTAZIONI DELLA PRIVACY Ulteriori info sulla Cookie Policy