* AI ("Artificial Intelligence") subtitles on Tagalog.com are generated using "Whisper" by OpenAI (the same company that created ChatGPT and DallE2). Results and accuracy may vary.
* The subtitles do include errors occasionally and should only be used as a tool to help with your listening practice.
* You can request this website to create a transcript for a video if one doesn't already exist by clicking the "Request AI Subtitles" button below a video. Transcribing usually takes 30-40% of the length of a video to complete if there are no other videos in
the queue. For example, a 21 minute video will take 7-8 minutes to transcribe.
* Running a super fast cloud GPU server to do these transcriptions does cost money. If you have the desire and financial ability, consider
becoming a patron
to support these video transcriptions, and the other tools and apps built by Tagalog.com
00:01.0
Mahusay, may kredibilidad at hinahangaan sa mundo ng pagbabalita.
00:07.1
Pero hindi niya inakalang minsan sa kanyang karera, siya mismo ang magiging istorya.
00:19.5
Ikwinento sa akin ang news anchor na si Ruth Cabal kung paano siya nabiktima ng deepfake scam.
00:30.0
It's a program that will lead hundreds of thousands of people.
00:37.4
December 2023 nang kumalat ang video ni Ruth na ipinost ng Facebook page na Global Review.
00:44.0
Kuhang-kuha ang outfit ng news anchor, pati ang set ng dati niyang programa.
00:49.2
Mismong si Ruth nga raw at ang kanyang pamilya, muntik mapaniwala.
00:53.8
Paano niyo po nalaman na meron niyang video na kumakalat noon ng mga newscast niyo daw?
00:58.4
Noong una merong nag-send sa akin, parang nung nakita ko yung thumbnail, parang dinismiss ko lang siya.
01:05.4
And then there was another person who sent it, so doon ako nagkaroon ng interest na tignan.
01:10.5
Nagulat ako na mukha ko yung nakita ko and then it was my newscast.
01:15.9
And then I thought I really heard my own voice kasi naalala ko yung damit ko eh.
01:20.5
Pero wala akong nireport na ganong storya.
01:24.3
Isang investment scheme ang ibinibida kuno ni Ruth.
01:27.7
Sa halos 40 segundong video, ang 14,000 pesos daw na investment, pwedeng mga nakumano ng 100 hanggang 150,000 pesos kada buwan.
01:39.9
Kompletos, Ricardo, dahil may testimonya pa ng mga kunwaring nag-invest at kumita.
01:45.8
You will be able to earn hundreds of thousands of pesos per month.
01:49.1
There are already some lucky people who have had the chance to try the program in action.
01:53.2
I earned 130,000 pesos in the first month.
01:56.4
Right now, the program is still running.
02:00.1
The platform allows me to earn several times more than I could have earned at my job.
02:07.3
Ganon, tinatawag na deepfake ang video na pinakita sa akin ni Ruth.
02:12.6
Galing ang salitang ito sa deep learning at fake.
02:16.0
Ito yung mga larawan, tunog o video na digitally manipulated o binago
02:21.2
gamit ang teknolohiya para gayahin o pekein ang itsura, boses,
02:26.4
at muestra ng isang tao.
02:28.8
Talamak din abroad ang paggamit ng malalaking personalidad para lokohin ang publiko.
02:34.4
Ilan sa mga biktima niyan ang journalist na si Anderson Cooper,
02:37.9
Canadian Prime Minister Justin Trudeau, at Russian President Vladimir Putin.
02:44.1
Ayon sa eksperto, ginagamitan ng artificial intelligence o AI
02:48.4
ang pamemeke sa news report ni Ruth.
02:51.3
Matagal na raw itong style ng mga online kawatan.
02:56.4
Nakikita natin na talagang pinapalitan lang yung boses.
02:58.8
Parang yung dubbing ng mga pelikulang, foreign films, tapos Pinoy yung nagsasalita.
03:05.4
Pero ngayon, may mga development na naman sa technology.
03:09.5
So yung AI, kayang-kayang yung gumawa ng mga hyper, tawag hyper-realistic video.
03:14.6
Nakamuka talaga ng tao at magsasalita ng mga naparang tao.
03:23.7
Pwede raw itong gawin ng kahit sinong may kumain.
03:27.3
Hindi na raw nakagalabas.
03:29.4
Pagtataka kung mga kilalang public personality ang biktima.
03:33.1
So halimbawa isa kang sikat na tao, isa kang artista,
03:36.8
ang dami mong samples na makukuha online at sa YouTube.
03:41.5
Pag sasamasamahin niya yun, at babasahin niyo ng AI,
03:46.6
at babasahin ng machine,
03:48.3
para kunin yung mga bagay na gusto mong sabihin
03:51.6
at gusto mong ipasalita dun sa tao.
03:55.8
Ang nangyari, yung mga mga sam church fl slavery, yung mga mga mga mga mga mga cushion, yung mga mga mga mga mga computer, yung mga mga makul bathing.
03:55.8
Ang nangyara dun kay Ruth, ano siya eh, obvious din para sa trained na mga tao na lagi nakikita to, obvious na fake talaga.
04:07.8
So pati boses niya, yung pitch ng boses niya, hindi bagay dun sa pagsasalita niya.
04:13.0
Budol Alert! Posibleng AI-generated ang video kung kakaiba ang buka ng bibig at mali ang bigkas ng mga salita.
04:20.8
Nang mapanood ko ang video ni Ruth, madali kong nakilatis na peke nga ito.
04:26.9
Lalo kung pagmamasdan ang galaw ng bibig at kung pakikinggang mabuti ang pagbigkas ng mga salita.
04:33.1
Pero ang nakababahala ayon sa kanya, eh ang posibilidad na may maniniwala't maniniwala rito.
04:39.7
Paano kung totoo may mag-invest? May maingganyo na, ay napanood ko si Ruth Cabal, nireport niya sa balita niya o nireport niya sa newscast na may ganitong event
04:49.2
o may ganitong pwede akong maglagay ng pera.
04:53.1
So dahil nakilala ako na as a news anchor or as a journalist, people might think na totoo yung sinasabi ko.
05:02.9
Hindi pinalampas ni Ruth ang high-tech na pambubudol na yan.
05:07.2
Sumulat siya agad sa Meta, ang kumpanyang nagmamayari ng Facebook, sa pag-asang mabubura ang peking video.
05:19.2
Apparently, it takes some time pala before the platform, the social media platform can take it down.
05:29.1
Yung una susabihin nila, it doesn't violate any standard of the social media platforms.
05:35.4
And then since I don't know how it works, but since I have the link, the other day lang, kinlik ko yung link, the link is still there.
05:43.0
So yung mga social media platforms, ano pong role nila dapat sa pag-prevent nga yung kumakalat na ganitong?
05:49.1
Ganito, ng paggamit sa AI.
05:51.4
I think, ano, dapat mas strict sila in terms of yung controlling yung mga ganitong halimbawa.
05:59.2
Ang dami na kasi, di ba, may online selling na mahirap siya maiwasan.
06:03.8
Pero siguro naman, kung may mag-complain na, that's something they can immediately look at.
06:10.4
For example, kami na yung nag-complain, we're a media network, we're a media company.
06:14.3
Sana naging mabilis yung pag-take down nila.
06:17.6
Nakipagugnayan din si Ruth kay Sen.
06:19.1
Robin Padilla dahil nabanggit siya sa video bilang siya umanong pasimuno ng investment program.
06:25.6
Sinabi niya na rin niya na wala naman silang kinalaman sa ganitong, whatever platform or whatever money or whatever investment program that is.
06:35.9
Anong masasabi mong red flags na dapat people should be watching out for pag nakakakita ng mga ganitong videos?
06:43.4
Ako kasi parang hindi na natin maikakailan na word.
06:47.6
Ito na eh, ito na yung technology.
06:49.1
And then AI has its benefits also, di ba?
06:51.8
So parang nakakatulong din siya sa convenience or making things, making your work easier, faster, di ba?
06:58.5
So sana lang, huwag siyang maaabuso.
07:01.2
It's because there's too much information, hindi na nasa sala kung saan kinukuha yung information.
07:07.2
Extra budol alert daw dapat sa mga kumukonsumo ng online content.
07:12.1
Kung may usapang pera na, magdalawang isip na, malamang budol yan.
07:17.2
Dapat mas maging makilatis din tayo dun sa mga fina-follow natin, whether it's a scam or not, but it involves money.
07:24.4
And yung sinasabi nila na if it's too good to be true, parang magdalawang isip ka na tatlong isip.