Close
 


How to spot 'deepfake, shallowfake' manipulated videos
Hide Subtitles
Click any subtitle word to view Tagalog.com dictionary results.
Computer Shortcuts: Left / Right arrows to jump 2 seconds back or forward. +Enter or Space to toggle Play/Pause button. Full Screen Mode
How to spot manipulated videos Subscribe to the ABS-CBN News channel! - http://bit.ly/TheABSCBNNews Watch full episodes on iWantTFC for FREE here: http://iwanttfc.com Visit our website at http://news.abs-cbn.com Facebook: https://www.facebook.com/abscbnNEWS Twitter: https://twitter.com/abscbnnews Instagram: https://www.instagram.com/abscbnnews
ABS-CBN News
  Mute  
Run time: 05:44
Has AI Subtitles



Video Transcript / Subtitles:( AI generated. About AI subtitles » )
00:00.0
Tama yung binanggit ni Art. Ang tawag doon, shallow fake. Yung mga ini-edit na video, shallow fake ang tawag doon.
00:07.9
So yun ang term? Jerry, wait lang. Yung mga taga-Malacanang, Malacanang mismo nagsabing deep fake. Hindi po mali po kayo. Shallow fake pala ang tamang term, Jerry.
00:18.7
Kasi edited lang ito, hindi ito, ano ang tawag doon, AI.
00:22.0
Kung edited lang. Ay naku na, pumangit na yung signal ni Jerry. Jerry, ulitin mo nga.
00:29.7
Kung edited yun, ang tawag natin, shallow fake. Tapos tawag doon, shallow fake.
00:35.3
Okay. Sige, tuloy mo.
00:38.0
Tapos yun nga, yung machine learning na binanggit ni Art, ang tawag dyan, deep learning. Kaya deep fake. Deep learning plus fake.
00:44.9
Yun ang term niya kung bakit nakuha yung salitang deep fake.
00:50.4
Now, in as far as the tip is concerned,
00:52.0
ayon sa mga AI experts, yung mga gumagawa ng ganyan, para daw matuntun natin kung totoo ba ito o hindi,
01:00.3
pang unang-una daw, yung mga AI generated videos, walang facial expression. Yan ang unang-una.
01:09.1
Mahirap daw nila magaya yung facial expression. Walang emosyon yung mga video nila. Okay? That's number one.
01:17.2
Number two, tignan daw natin yung shape ng face.
01:22.0
Hala. Hala, nag-freeze na si Jerry.
01:29.9
Jerry, okay. Yan, yan, yan. Pampangit yung signal mo. Ano yung naputol ka doon sa shape ng face, sabi mo?
01:36.4
Oo, yun. Hirap sila doon. Sa figura ng muka, hindi nila magaya perfecto.
01:42.9
Okay.
01:43.5
Okay ba yun? Narinig niyo po ba?
01:44.8
Tapos, tapos.
01:47.3
Tapos, pangatlo, yung tinga.
01:50.6
Yung tinga? Ano daw?
01:52.0
Ano daw yung...
01:53.0
Yung alin, Jerry?
01:54.8
Tapos, tignan daw niyo yung tinga.
01:56.0
Ha?
01:56.4
Hindi, yung tinga. Yes.
01:58.7
Ano meron sa tinga, Kamu?
02:00.1
Hello, hello?
02:00.9
Apo.
02:01.3
Ano meron sa tinga, Jerry?
02:02.1
Tinga, yes.
02:04.8
Ay, napatawag.
02:07.6
Patuloy mo na muna si Jerry.
02:10.7
Pasaluhin mo nga art. Ano sabi mo art yun sa tinga daw? Ano nga nung sa tinga?
02:15.4
Ano dapat namin tignan?
02:16.6
So, yung tinga minsan, isa yan sa mga indicator na makikita.
02:22.0
Ano nangyayari mo yung...
02:23.0
Na fake yung video, deep fake yung video.
02:25.8
Kasi yung machine learning, lalo na pagkulang ka sa konti yung sample.
02:30.6
Kasi kailangan mo ng malaking sample.
02:33.0
Halimbawa, ikaw, Alvin, lagi ka nakikita.
02:35.0
So, na-analyze yung Alvin.
02:38.7
Oo, ayan na. Naririnig ka na namin, Jerry.
02:41.3
Ano ka mo yung sa tinga?
02:44.9
Sir Jerry, eh.
02:46.8
Jerry.
02:48.5
Nawalo.
02:48.9
Ay, sayang naman.
02:49.8
Ituloy mo nga ito, Kamil, sa ibang mong programa.
02:52.0
Maganda itong mga ganitong tips, oh.
02:54.0
Hello?
02:54.3
Ayan, ayan, ayan. Jerry, ituloy mo nga yung tinga.
02:57.6
Sabi nung mga gumagawa ng AI, hindi nila maperpekto yung tinga ng ginagaya nila.
03:03.1
Ah, okay.
03:04.0
So, kung tayo nanonood, tignan mo yung tinga kung nagagaya, kung pareho.
03:10.6
Diba?
03:11.1
Tapos, ang sinasabi nilang isa pang pwede natin gawin,
03:14.8
kasi Alvin Doris, ang problema natin, pag nanonood tayo ng video ngayon,
03:18.2
sa mobile phone tayo nanonood, ang liit ng screen.
03:21.7
Tama.
03:21.9
Kaya, kala mo, ang linaw-linaw ng video na pinapanood mo.
03:26.1
So, kung, if let's say, medyo nagdududa ka,
03:30.5
panoorin mo daw ito sa malaking screen.
03:33.2
You watch it on a bigger screen and you will see.
03:36.8
O, pagka malaking screen.
03:38.3
Magpipixelize. Magpipixelize yung itsura niya.
03:40.9
Ah, ganun.
03:41.6
Para makita mo kung totoo ito o hindi.
03:44.4
Okay.
03:44.7
Tapos, last but not the least, sabi nila,
03:48.0
mag-iingat daw tayo lalong-lalo na kung ang mga paksa na pinag-uusap,
03:51.9
handapang ay sensitibo.
03:54.8
Mag-isip-isip daw tayo katulad na nangyari sa ating Pangulo.
03:58.2
Yung sinabi niya, very sensitive yun.
04:00.5
Huwag daw tayo basta-basta maniniwala.
04:03.2
So, kung tinignan mo, talagang the common sense,
04:05.7
our common sense will come into play when it comes to this kind of fake videos.
04:10.9
Okay.
04:11.5
So, Art, may naiwan ka pa bang tip dyan?
04:13.7
Art, alam mo, nakakatakot dito.
04:15.3
Parang mag-i-election next year.
04:16.7
Ayun nga.
04:17.0
Saan ka there ba yung lalabas ng mga fake news and shallow fake?
04:21.0
Shallow fake.
04:21.5
deepfake art?
04:23.3
Sa Amerika, meron ng 14 states
04:25.9
na nagpasa ng batas laban
04:27.8
sa paggamit ng deepfake sa election.
04:30.6
Sa Australia,
04:31.6
ginawa nila, pinagbawala na
04:33.7
ang mga
04:34.3
social media platforms
04:37.1
na magbigay o na gumamit ng mga
04:39.6
celebrities para dun sa mga
04:41.2
endorsement gaya na nangyayari kay
04:43.3
Ding Dong Dantes, kay
04:45.3
Duke Willie Ong,
04:47.3
na ginagamit ng pamimike. So, bawal
04:49.6
na pag ginawa yun ng mga
04:50.9
social media platforms sa
04:53.3
Australia. Dapat ang Pilipinas,
04:55.3
kasi mag-eelection na, eto na,
04:57.3
dapat gumawa na din ng regulations
04:59.4
tungkol dito na pagbawalan yung mga
05:01.4
social media platforms. Kasi,
05:03.3
sa kanila kumakala itong mga
05:05.2
ganitong mga
05:07.2
fake na mga
05:09.1
videos para sa
05:11.1
misinformation. Pero,
05:13.4
ang pinakamahalagang tip dito,
05:16.2
dapat pag nakakita
05:17.3
kayo ng ganito, mag-double source
05:19.3
yung mga tao dapat. Anong ibig
05:20.9
sabihin ng double source?
05:22.6
Pag nakita nila na may nagpost, hanapin nila
05:24.9
sa iba kung may nagpost na iba. At ang
05:26.7
pinakamabuting second source
05:28.8
natin dito, yung mainstream media
05:30.7
natin. Kasi, pag nilagay sa
05:32.7
mainstream media, ibig sabihin na verified
05:34.8
ito. Ibig sabihin na checked ito.
05:36.7
Manavet ito ng ayos. Hindi lang ito
05:38.6
basta-basta pinadala o pinakita
05:40.9
sa mga tao.