- organsea
Session 3 : Video, Transcript and French Translation
BLACK OCULARS : Session Three : NOVEMBER 17, 2022
Race Medicine, Algorithms and Artificial Intelligence
Speakers: LLana James, Idil Abdillahi, and Dr. Ijeoma Opara. Moderator: Jackie Girgas
This panel focuses on the experience of Black women and non-binary people at the intersection of emerging trends in artificial intelligence, specifically taking up issues in facial recognition algorithms, individually-targeted health and risk-based AI, decreasing privacy, and potential technological backlash.
Apologies, due to technical difficulties, ASL Interpretation is not available in this recording.
DOWNLOAD TRANSCRIPTS
English Transcript
VOICE-OVER: Recording in progress.
SPEAKER: Alright, Idil, we're all set to go.
IDIL ABDILLAHI: Good evening, everybody. My name is Idil Abdillahi, and my pronouns are she/her, and I am a faculty member in the School of Disability Studies, and I bring greetings for you from my fellow DST members. On the screen, you will see that I am a Black woman wearing a green and black scarf, black-rimmed glasses, a bald head, a black dress and a gold necklace with my name on it. It is my pleasure to be here with you today and to welcome you to our third panel of this series and a panel of five discussions in the Black Oculars Speaker series. I will begin with the Land Acknowledgement. As we gather here today, to listen to the speakers, share... Share their thinking, reflect and learn from their perspectives and to engage in critical discussion, we acknowledge that the School of Disability Studies is on Treaty 13 territory, a treaty that is established between the Mississauga of the Credit River and the British Crown. We are surrounded by Three D... Treaty 13A, Treaty 20, also known as the Williams Treaty, and Treaty 19.
I speak to you today from the city that is currently called Tkaronto or Toronto and the university, which are, which is in the Dish With One Spoon territory, which is a territory between the Haudenosaunee Confederacy and the Anishinaabe, including allied nations, to be peacefully shared and protect the resources around the Great Lakes. As always, the purpose of a land acknowledgement is to help us pause and recognise how... How territory... And recognise the territories that we are on and also to find ourselves somewhere, and if you find yourself somewhere else other than Toronto right now, I hope that you are able to acknowledge where you are and to acknowledge both the history and presence of Indigenous communities in the place where you call home. While those of us who are not Indigenous to this territory have arrived as settlers on Indigenous territories in different ways, we acknowledge that some of us, some of our Ancestors and Elders were forcibly displaced and brought here in involuntarily or by force, particularly those brought here as a result of the Trans-Atlantic Slave trade.
We acknowledge that we are all treaty people and we are grateful to be working and living on this land. The School of Disability Studies is an undergraduate degree completion program with a robust record of post-doctoral studies. The school has a commitment, a strong commitment to equity and justice for disability, for disabled, mad, and deaf people, but is always oriented to affirm and to affirm the desirable troubles that the desirability that troubled disability madness and Deford among us all. Together, we begin with our bodies and our minds, to critically reflect on the impact of surveillance, containment, public resistance and many other things that will be discussed in this series. This panel focuses on the experiences of Black Women and Non-Binary people at the intersection of emerging trends and artificial intelligence, specifically taking up issues and facial recognition algorithms individually targeted health and risk-based AI, decrease in privacy and potential technological backlash among women and, among women and non-binary people.
This panel specifically looks at these impacts on the lives of Afro-Indigenous Black Women and Non-Binary People. The work comes to us today by way of the Social Sciences and Humanities Research Council of Canada, the Connections Grant. And it builds on a growing body of work that is interrogating social policy institutions and anti-Black state violence. It is further informed by some of my previous work in the areas of surveillance, the experiences of Black Women, poverty and state violence, madness, medicalisation and broader Black life and livabilities. These discussions provide a platform for critical reflection and dialogue among students, academics, activists and artists bringing diverse perspectives and experiences to bear on the topic. A few notes on access- this evening, we don't have any deaf interpretation. Deaf interpretation, ie, one of our interpreters had to cancel last minute. And so the interpretation team has made a decision not to go forward this evening, and so we apologise for that.
However, we do have access to live captioning and so if you require live captioning, kindly click on the CC button at the bottom of the screen. There are few ways for you to participate in tonight's panel. The chat box will be kept off for participants for the series. However, we encourage attendees to ask questions and ask questions in using the Zoom Question and Answer feature. The use of this feature, to use this feature, sorry, please press... Please press the Q&A button, type your question into the Q&A box and click send. You can also send us your questions anonymously by clicking the box below in the typing area. We can reply to these questions live or in text with the window. If in the Q&A portion of the panel, you would like to ask a question using audio, please, press the raise hand button and we will enable your microphone at the appropriate time. If you need your video on, please feel free to indicate that to us in the Q&A box and we will turn it on at the appropriate time.
In addition, if you'd like to use social media to engage in today's panel, please feel free to tag us at @Black Oculars on Twitter and Instagram. We are lucky to have Apollo with us this evening and amber, who will be live tweeting the panel from @Black Oculars on the Twitter account. To introduce this evening's moderator. We are lucky and really grateful to have Jackie with us. Jackie is a second-year PhD student in experimental medicine at McGill University, studying the use of AI to predict the presence of and treatment responses in brain mass thesis in patients with cancer. She has held multiple research positions, including research, nursing and project management in nonprofit and pharmaceutical industries and is interested in the application of AI within her community. Jackie... Jackie also has a three-year-old son. So let's go ahead and welcome, Jackie, who will be our moderator this evening. Thank you, Jackie.
JACKIE GIRGIS: Thank you so much. So what I'm gonna do right now is I'm gonna introduce all three of the speakers that are gonna be talking today. I'll also give a little bit of some of the questions that were meant to spark the presentations in the talks that we're going to have moving forward. If you have questions like Idil had mentioned, just put them in the Q&A and we can go through them depending on how the speakers feel at the beginning or in the middle or at the end of their talks. So first, I'm going to introduce Dr Opara. Dr Opara is an internationally recognised internal medicine and pediatric primary care physician at Wayne Health, Assistant Professor at Wayne State University School of Medicine and Associate Program Director of the Wayne State University School of Medicine, Internal Medicine Residency in Detroit, Michigan. Born in Nigeria and based in Detroit, she is also a global public health expert, international speaker and consultant, scholar and activist. She equips leaders, communities, organisations and institutions with systems-based problem-solving tools for achieving their mission and meeting their bottom line while creating equitable, just anti-racist and decolonised training and working environments.
She's an award-winning medical and community educator, mentor and leader in both academic and non-academic spheres and sits on multiple national and international boards and committees addressing anti-racism, decolonisation, health, equity and health justice. A liberation medicine practitioner, she centres Black and Indigenous African Solutions in her asset-based justice equity work as a National Institutes of Health-funded, community-based, participatory trans-racial researcher, organiser and clinician. She has created and led various health justice initiatives and has transformed the culture of her institution's medical education and faculty development programs through the initiatives, she leads and co-leads respectively, including health, equity and justice in medicine and global urban health equity programs. She is celebrated for her masterful communication, moderation and facilitation skills, especially when engaging in challenging conversations regarding racial justice and systems transformation, as demonstrated in her roles as co-chair of the Canada-US Coalition to End Race Correction in Health Care, co-editor of Racism and Health of PLOS- One Global Public Health Journal, creator of Anti-Racism in Medicine Action Roundtable, facilitator of the Governor of Michigan's Roundtable on Reproductive Justice, and member of the White House Office of Public Engagement Health Equity Leaders Roundtable.
In appreciation for her dedication to health justice, Dr Opara was recently recognised by the WSU Board of Governors for her tireless work during the COVID-19 pandemic to raise awareness about medical and scientific racism, create new systems of training for healthcare professionals, advocate for practice and policy changes, as well as institutional accountability, create advocacy networks of black professionals and centre the voices and stories of Black patients. I am so excited to hear what you're gonna have to say for us today. I'll go ahead and I'll introduce the next speaker who is Dr LLana James. LLana James is a public intellectual and scientist. Her career spans the private sector and public service. She examines how AI disrupts the practice of health care and medicine, while it increasingly redefines the human, rehabilitation sciences, public health and health care systems. LLana develops, implements and evaluates interventions at the intersection of race, ethnicity, medicine, public health, health systems, data, AI, and the law.
She is the AI Medicine and Data Justice postdoctoral fellow at Queen's University. And finally, I will introduce Dr Idil Abdullahi, who was the person that we first saw on the screen. Dr Abdullahi has published widely on an array of topics, including mental health, poverty, HIV, AIDS, organisational development, and several other key policy areas at the intersection of Black life and state interruption. Most notably, her cutting-edge research on scholarship on black and anti-black citizens has informed the current debates on fatal police shootings of Black Matter-identified peoples. Her work is attentive to the tensions between data, research, communities, institutions and monetisation. And she strives to challenge the ways that research data about communities experiencing structural oppression, particularly Black communities, is increasingly used in capital-oriented institutions, and simultaneously is serving sociopolitical care spaces such as non-profit organizations, prisons, hospitals and community-based health centres.
Dr Abdullah's work integrates an understanding of how these institutions and care spaces continue to disproportionately impact Black Women and people, leading to their disenfranchisement from public services and supports in Toronto and beyond. Her newest book, called 'Black Women Under State Surveillance, Poverty and the Violence of Social Assistance' from SRP Books, is currently available for sale at your local bookstores. And finally, I'm just going to set the stage a little bit for the discussion coming up, talk about three questions that were meant to kind of provoke this conversation. So first was, can you provide a bit of historical content about the use of health-related technologies and algorithms? This can include both diagnoses and treatments at the intersection of Blackness and Womanhood/ Transness. What are some key contentions that you can describe and anti-Black considerations that must be tended to in the increasing field of race medicine and artificial intelligence more broadly?
And finally, what responses can Black feminists share with people working at the intersection of race-based data, technology, and virtual health provision at this time? So I'll pass it over to you, Dr Opara for our first talk.
DR IJEOMA OPARA: Thank you so much, Jackie. That was such a kind and generous introduction, and I'm really honoured to be here. Thank you to everyone that is here present. I'm so excited to share space with my wonderful, powerful sisters, Dr Idil and LLana, who is my better half, I would like to say. And so with that, again, my name is Dr Ijeoma Nnodim Opara, pronoun she/her and O. I'm the first daughter of Mrs Ngozi Nnodim and Dr Ahamefura Nnodim. And I'm really proud to be in your presence today. I wanna acknowledge that the land I'm on is the original homelands of the Anishinabe, otherwise known as the Three Fires people, the Ojibwe, Odawa and Botawatomi. And there's a commitment to continuing to better, to be a better steward of this land, while acknowledging the history of genocide and forced removal from Detroit or Waawiyatanong. I also acknowledge my ancestors and community of origin and adoption. The Igbo, African, and Diaspora ancestors that lived, resisted, prospered and sacrificed so that I may be before you standing or sitting in this moment, a free Black African woman.
I want to name that I am a brown skin coloured goddess, honey, and I'm wearing glasses, I have short, a short, curly fade, purple lipstick, black shirt with gold jewellery, my ears and neck, and I have my African print jacket on. If you don't take anything away from today's conversation, I hope that you take and internalised five keys. One is that race is a sociopolitical cultural construct and not a biological category. Secondly, that race is not the same thing as genetic ancestry. Thirdly, that racism is the vector of disease, not "race". Fourthly, and this might actually be fifthly, you know, because I didn't do, I didn't go to school for math, so I can't count. But that race correction is a racist practice and is tantamount to malpractice. OK. And these are the five keys I want us to keep in mind as I engage in this conversation and, hopefully, that this conversation reflects some responses to the questions that were posed. So, first of all, just as level said, "What is race correction?" And so this is, you know, from the work that LLana and I and a wonderful team of amazing brothers and sisters and siblings do, the Canada-US Coalition to End Race Correction in Health Care.
This is a practice that occurs when health care providers use a patient's 'race' or racial category to calculate lab results or use 'race-based' agnostic charts or calculators or cutoff ranges to decide whether or not usually a Black person should receive care or decide whether or not the symptoms a Black person is presenting with require treatment, OK. And the question is, why has this practice remained part of the medical calibrations ever since slavery, or ever since the trans-Atlantic slavery? And regardless of the seismic changes and updates in medical knowledge, technology and ethics, I mean, we've had this amazing landmark US work, which is the Human Genome Project that shows that we are essentially 99.9% identical, you know, as humans, which shows that there is greater genetic variation within each specific racial category than between so-called racialised categories, right. And yet and still in medicine and in health care, we still treat "race" as a biological category. We still corrects for biological or physiologic processes in the bodies of Black people to meet a certain standard, which is of that that occurs in white bodies.
Right. And this is great. A wonderful book by Dr Joseph Grave, 'Racism Not Race Answers to Frequently Asked Questions'. This is a powerful brother who was the first African-American that was trained and got his PhD in evolutionary biology and really began to break down much of the internalised beliefs that many people have about the human family, where the invention of human biological race came from and has been used as a, as an exhibit, as a reason to explain disparities of health among racialised groups in order to obscure the true cause, which is a white supremacy and structural racism. And we'll talk about that in a second. The work by the outstanding Dr Dorothy Roberts in her book 'Fatal Invention'. OK, so y'all need to know something. I'm a working mum and this is one of 'em. And so please give me a second. "I need you to give me an..."
CHIMAMANDA: "Mommy!"
DR IJEOMA OPARA: Yes.
CHIMAMANDA: Well, my...
DR IJEOMA OPARA: Chimamanda, please.
CHIMAMANDA: My books were... What I, what I, what I mean...
DR IJEOMA OPARA: Chimamanda, please.
CHIMAMANDA: No, mommy. My books that I made at school yesterday, (UNKNOWN) to crumble it.
DR IJEOMA OPARA: I'm sorry. OK, tell them not that and I'm really sorry. OK, go tell Daddy, and close the door. Thank you. Alright. Thank you very much. This is called work-life integration baby, there's no such thing as balance. Just so you know, we just integrate and we just go with the flow. That's what we do. Alright, 'cause I'm a physician Mama, and that's how it's always gonna be. So the work of Dr Robert Dorothy Roberts, who is a fantastic woman, and you wanna read this book, it's called 'Fatal Invention, How Science, Politics and Big Business Recreate Race in the 21st Century' is an outstanding work. It's an outstanding one. And this is a quote that really, really highlights a lot of the thinking when we talk about race correction and we'll talk about how it integrates into algorithms in a second. But the delusion that race is a biological inheritance rather than a political relationship, these plenty of supposedly intelligent people to make the most ludicrous statements about Black folks and biological traits.
But where does this data delusion come from? Well, you have quite a few people to thank for this, but there are four of these folks will include Dr Samuel Cartwright, Dr Charles Morton, Dr Charles Darwin and Carl Linnaeus. And these are four you, as you can see bad boys of the 18th century, honey, who really were critical to determining that no racial differences were biological and rooted in the body and in the genes and in tissues and organs and therefore is, what is... Therefore, a veritable reason for the differences in health outcomes. It's important that we understand this concept of scientific racism, which is the system that underpins race-based medicine and then subsequently race, so-called race correction by which research characterising race as an essential biological variable translates into clinical practice and then leading to inequitable care. And what is the function of this? Right, the function ultimately so established a racial hierarchy. So you have, you know, Charles Darwin's, 'The Origin of Species'.
And then there's a subtitle that pretty much hearkens to the fact that there is a racial hierarchy that, you know, and so that, those belief systems that were those pseudoscientific theories that were proposed was essentially to want to explain why folks that were Caucasian or Caucasian, AKA, White, were superior to every other person with the "Negro" at the very bottom. And so that is, that is the surface of it, ultimately. And so what we need to now internalise is that medicine and health care is not standalone immune to racial inequities and somehow just dealing with the gosh darn poor bad consequences of all these societal inequities and injustices, rather, but rather itself is the product of white supremacy and structural racism. And so this is my paper, 'Modern Day Drop Drapetomania, Calling Out Scientific Racism' written with my amazing sister scholars, that really began to spell this out and tie it into the response to the COVID-19 pandemic. And so essentially, it's important to begin to understand that race was invented ultimately to implement racism.
And so there's a saying that we usually have in terms of... In terms of, sorry, I need to manipulate some things on my screen. In health justice work that racism invented race, right? And so race was invented in order to implement racism and maintain slavery, uphold white supremacism and antiBlackness, and essentially hoard economic and political power among white-bodied people. It is not a natural grouping that is somehow misused by bigoted laypeople, but beneficially by unbiased doctors, right? No. It is... It is absolutely, there's an intention that's written into the way that is incorporated into clinical medicine and the algorithms that then are reproduced in technology. And these are amazing books. And again, I'm sure this group has read all this, but in case you haven't, you wanna pick up one of these books that you see here, the '1619 Project', 'Medical Apartheid', etc. And so what we're talking about is that this conversation lies inside the context of racial capitalism, right?
Stolen land, stolen bodies, stolen labour, right? And so in order to justify that system, it is important, therefore, to somehow put forward and formalise a belief system and a way of knowing that epistemology that naturally divides humans into biolo, so-called biologically distinct races, you know, out of this 18th century, you know, scientific enlightenment. But really the function and the purpose, and this is another point here for our students, etc, and folks that do this work, it's always be asking, well, what is the function of this policy, of this curriculum, of this program, of this initiative, of this idea, of this thought of this discussion? Right, what is the function? The function is to justify European and the later white American conquest, dispossession, and enslavement of other people. And physicians, American physicians, particularly played a unique role in the 19th century promoting this racial concept of disease to legitimise the transatlantic slave trade and US American chattel slavery again based on innate distinctions rather than a white supremacism.
I was literally in a research meeting today where somebody, you know, talked about their study, again, conflating race and ancestry and ethnicity to explain a biological difference as it relates to vitamin D according to ancestry. This thing is so ingrained in clinical practice and medical research and therefore, policy process and educational systems, right? And the piece about it and ultimately what is it in service of it to dehumanise, right? Is to dehumanise to say that folks in Black bodies are not human and therefore, naturally fit for exploitation and destruction. So whether it's the lynching rope, whether it's the whip. Right, which Dr Samuel Cartwright said was the cure for madness. Dr Idil does work on madness, right? The madness of enslaved Africans to run away is, you know, that that became a disease that was pathologised where Black bodies and Black natural human responses are somehow pathologised. And therefore, his treatment literally in his book is to whip them. And so it justifies therefore, the violence against Black bodies, even in health care settings and in academia and in not, in any on the streets, in the grocery store in the library, just like, you know, mind our business by the pool, whatever.
The violence is justified because there's an inherent pathology in the Black body. And that thinking has been replicated over and over again. Over here, this is a picture from the Tuskegee experiment. It justifies, you know, being able to test, right, on black bodies and exploit and extract knowledge that benefits white-bodied people while denying treatment right to black body individuals because you are not even human. It justifies policies that target black bodies. So the war on drugs, the war on crime, right? Racist policies, eugenics and Naziism, forced sterilization, right? It justifies segregation policies, Jim Crow, redlining in all kinds of levels housing, healthcare, Internet, environment, reproductive injustice. You see what happened here on this side of the pond in the states, right, with the removal of Roe v Wade. Right. Voter suppression, genocide, it justifies these racist policy. And so in medicine and this is, again, the phenomenal Dr Dorothy Roberts, and you wanna check out ther's a TED talk that she gave, 'The Problem with Racismin Medicine'.
Well, it used to create differential diagnoses, evaluation, management and treatment. It's inculcated into our technology and allocated resources. It feeds itself into assumptions and it's baked even into the machines and devices and algorithms tech that we use across all disciplines in health care and beyond and specialty. So this is a paper that talks about experiments that we test, the lung function tests, and that machine is corrected for race. If you walk in and you need a lung function test in order to determine what's going on with your lungs, if you are seen as a Black person, there is a correction that is added because based on the belief by Samuel Cartwright. And this is documented, well documented in Lundy Braun's book. And I think Lundy Braun is speaking tomorrow actually on this same topic. I believe in Queen's University. I don't know, somewhere. I'm happy to share the link later. However, if you walk in, you get corrected based on the belief by people like some doctors Samuel Cartwright that said that 'Black folks have lower lung capacity for some magical reason.' The pulse oximetry up until recently, right?
For the past few decades, we knew that the pulse oximeter and that's a device that checks how much oxygen is in the body reads higher numbers in dark-skinned individuals when really the oxygen in the body is low. So in this study that was done, Black patients were seen to have three times the frequency of occult hypoxemia not detected by the pulse oximetry. Occult hypoxemia just means that your oxygen level is low, but the machine says it's high and that happens three times more in dark-skinned individuals that I happen to also identify as Black than those that were lighter skinned. Now, think about COVID and how that contributed to the COVID-19 death mortality and morbidity disparities. X-ray machines, right, Black folks for a long period of time were given higher doses of radiation because the belief was that Black that the skeleton of the Negro is heavier and bones are thicker, right. And that carried on for a very long time. The belief that Black folks had denser bones, more muscle, thicker skin and so radiologists and technicians used higher radiation.
Think about the risks for the long-term risk in terms of cancer and other radiation illnesses. The psychological costs, because of again, the reinforcement of dehumanisation. And so there's incredible consequences. The cost and toll with Black folks experienced an incredible burden of preventable suffering, increased health care costs, lost days of work and income, disparities of health, wealth, injustice, morbidity, mortality, death. We saw this play out in the pandemic, which is ongoing. Don't be fooled is still ongoing. In the state of Michigan, where I reside, we have about 14% of our population are people of African descent, and we accounted for 40% of the deaths. I mean, it was ridiculous. And that was replicated throughout the country. Delayed diagnosis, misdiagnosis, delayed intervention, people getting turned away, lack of close surveillance, misallocation of resources, inappropriate treatment, misclassification of disease severity, access to lifesaving procedures. All were...
IJEOMA OPARA: Where happened and contributed to the disparities. And it's important that we understand that these level of injustices that intersectional mutually reinforces, reinforces, and is compounded by technology with incredible health care costs. I'm not going to that as much. I want to wrap up my comments. We see that play out in maternal mortality rates where a black woman who is pregnant is up to four times. And in Louisiana, I want to say that the numbers are in double. The percentage numbers are in double digits likely to die than their white woman counterparts. It doesn't matter, have socioeconomic status. In fact, a highly educated, wealthy black woman has about the same amount of risk as a poor high school dropout woman who is white in this country in terms of the outcomes in this country. OK. And the beautiful way to really encapsulate the why is Congresswoman Corey Bush in her comment in this paper, every day black women die because the system denies our humanity. And this paper that again, talks about, that the driver of these outcomes is racism.
It's not race per se. You got to talk about the ways in which people who are racialized as black are valued. And how that then shows up in our health outcomes. And it's what's interesting I want to point this out is it shows up in infant mortality. And remember, the United States leads other fellow high income countries in poor outcomes when it comes to women and babies. And so black babies die at or are killed at three times the rate of white newborns during the initial hospital stay. But what's interesting is that when they are taken care of by black doctors, their mortality rate is cut into half. What? So is it the body? Is it that black babies are inherently, inherently somehow deficit? No. There is something going on in the environment. And the implication for AI is that these biases, when you think about the context historically, are the way and the way that it shows up in practice, in research and at policy and in education that's outlined. Right? Are then used to train artificial intelligence, right?
The biases are only perpetuate on a larger scale with wider impact. And Ruha Benjamin is just a goddess on this space. You want an we want to have these books if you don't. And there's some papers that have shown that millions of black people affected by racial bias in health care algorithms is a study that showed that an algorithm determined the group that the patients that got secondary care for complex cases. So you came in, you admitted you were taking care of in the hospital that you sent home. People who are really sick need follow up so as to make sure that they stay healthy outside the hospital. Well, it turns out that black people were less likely to be referred for that care. Right. So that they'll be taken care of. In fact, for them to get that care, they have to show they have to be much sicker than white folks, because the way the algorithm was trained, it didn't it started to discriminate against black folks. And there's more details that I'm happy to to share later. But that's the point.
And then even in the electronic health record, we have negative patient descriptors compared to white patients. Black black patients in this study had almost three times the odds of having at least one negative descriptor in the history of physical. And that that is then used to train for other technology that's only replicated. Right. And this is a conversation that can be said. Well, as sister, Audre Lorde, said, can the master's tool be used to to to deconstruct or destroy the master's house? And there are some thoughts about, well, you know, in this study, algorithms actually recognize pain of black patients more than when radiologists themselves we're used to assess for pain. And so the algorithm actually did better than the radiologist. And so is there a way and this is just a question and you know, that we could potentially train to mitigate bias or to deconstruct structures and systems and cultures of white supremacy that can show up in technology. And that's the question, because many say yes and many say no and some say yes.
And the black feminist response and this I took this from Digital Black Feminism by Catherine Knight Steele could be that, well, maybe maybe we can use the master's tools, but we're going to need to ask different questions. We're going to need to propose different framing. We're going to need to propose different practice process and the products talk about the possibilities that constraints, and then redefine what technology is and accept that we've always had a relationship with technology. So I want to end here. I've spoken a lot and I appreciate your your patience with me, but what is the implication of recommendation to move forward? What do we do on the backs of all this? The first step is that we just need to cease desist and divest from race correction, a race based medicine and and scientific racism, periodt. OK. With a capital T, OK. To knowingly continue race correction in health care to perpetuat it in technology and in the many forms of just every society is to commit medical malpractice while perpetuating white supremacism and producing racial and intersectional disparities.
Because again, with AI would knit race correction into the fabric of care, which essentially is medical practice on a grand scale. And and the argument that this is a gross violation of human rights, simply put, it is racist AF. OK. And so the first step is to reckon with the history of medical racism, colonialism and violence in North America and right where you are. Another paper in The Lancet by the amazing Dr. Robert. You already know I love this Woman. The Art of Medicine. Anti-Racism in medicine, therefore, requires more than weeding out bias in the minds of individual physicians. All these bias training, I mean, they're cute, but really, we have to be about and in how medicine is structured to promote racist ideas, policies and practices. And it's beginning to happen. We have the American Academy of Pediatrics that has talked about the impact of racism on child and adult health and has removed race corrections in there some of and I want to say pretty much all but the biggest the one that got the most market, most publicity was on urinary tract infections.
How do we calculate kids urinal tract infections. American Journal of Obtestricts and Gynecology has removed race correction in their calculator for vaginal birth after a C-section. There's a calculator to determine what your risk is for negative outcomes if you do have a vaginal birth as a C-section that had a racial category there and placed black women at higher risk, just on the fact that they were black. OK. And nothing else. And that has been removed. In research. There are guidelines that have come up on how race, ethnicity, disparities and contextual factors must be explicitly considered in studies, design and interpretation, various standards and practice guidelines from a variety of organizations. And you can see some of them represented here, has started to come out in the ways that race and racism needs to be, you know, discussed in this space. Excuse me, advocacy is critical in this work, medical education. And this is my program, HEJIM, which is my curriculum that I founded.
And I teach at Wayne State University. Transformational. How do we train doctors, nurses and folks in health care to begin to make the change? Board exams need to change assessment, evaluation, promotion and tenure, licensure, etc. And finally, Advocate is going to be really critical on the local, professional, national and global levels, agitating for accountability and technology, transparency, organizing and leveraging across, you know, in a collective action across various sectors. Intersectionality. I'm a member of the Health Equity Leaders Roundtable of the White House, as you know, and that's another form of advocacy. The FDA convened a panel on November 1st to look at these pulse oximeters and that's because of the noise that many of us are making on the grassroots. And we need to be advocating for reparations, period. And there's a lot of work that has come out to support that. So I want to end my comments here with. Thank you. Thank you. The other thing that we can all do is join the coalition and go to endracecorrection.com.
This is the QR code but endracecorrection.com is the website. Participate in AIMART Antiracism medicine action roundtable every Saturday at 1 p.m. Eastern Standard Time on Twitter and YouTube. This is our website where you can see our previous work and it's on this website right here. That's the QR code for that. And again, remember those five keys that we talked about? Race is a social political construct. It's not the same as ancestry. Racism is the vector of disease and not race. And disparities are not accidental, but intentional by design and continuing race correction is racist and is essentially malpractise. This is my contact information to reach me on social media @innodim. You can email me here and thank you and bring it back to Jackie to continue the facilitation.
JACKIE GIRGIS: That was amazing. Thank you so much, Dr. Opara. I did actually have a question when you were talking at the end about reparations and kind of how this anti-black racism is embedded in the medical system and medical education and all of the schools. I know in 2008, the American Medical Association formally apologized for their role in anti-black racism specifically. And then ten years later, they had their first African-American female doctor as a president. And I was wondering if you noticed this kind of trickling down to or this kind of sentiment or are these changes trickling down to medical schools? Because that also is where these need to these changes need to be made? Because as people are coming into medicine and learning these very racist practices, things will not change. Even if the American Medical Association is saying sorry for their role. That happened over many, many years.
IJEOMA OPARA: Yeah, I know. That's a great question. And just pardon me, I'm trying to also sort of come out of here, or maybe you can kick me out. Jackie. It's always takes me a minute to come out of this section. So the question you asked is, as the AMA apologized for and by the way, for you all that you know, the American Medical Association is the America, the United States of America largest physician group, and played a huge role in in enforcing white supremacism. They excluded black doctors and didn't want and refused for black doctors to join them to the point that that is what caused black physicians in United States of America to form the National Medical Association NMA. That was a response to the systemic and systematic exclusion of black physicians from the American Medical Association. The American Medical Association opposed Medicaid. American Medical Association opposed and supported Jim Crow segregation. I mean, it's just it was the arm of the KKK, frankly. And so the American Medical Association has participated in and perpetuated incredible harm against, you know, black folks, you know, in this country.
So, yes, as Jackie said, 2008, they apologized. They came together with the National Medical Association and the Latinx Physicians Group as well. And have done a few things. The point of the matter, when we talk about reparations, we are talking that's not reparations, that's apology, but that's not repair. Right. And there's actually a United Nations. And later I'll put it in the chat. Oh, the chat is disabled, but I could talk about it later. But maybe my phenomenal, brilliant sisters, you know, know about it and can talk about it, that there are various components to what reparations is that the United Nations actually has put together. And so that was an apology, but that's not reparative justice. And so to your question, there needs to be a multi-pronged approach to reparations and repair in health care, certainly societaly period. Right. From the US government. And some of this lie that took out of this was I talked about there is actually a bill in Congress that has been stalled that was sponsored by people like Representative Cory Booker, etc., to just study reparations, just to study it and make recommendations.
And that has been stalled for quite... since 2020. Right. There was a proliferation on after the murder of George Floyd as a proliferation of all these acts. You have the George Floyd Police Brutality Act. We had the Anti-Racism in Public Health Act. We have the Commission to to Study Reparations Act that came out. But they've all been stalled because, you know, power doesn't want to seed itself, right, without being forced to. And so there needs to be certainly reparations on a level. But these to be specific reparations when it comes to health care and medicine. And that's going to take that's going to be a more not more complex but more involved, you know, approach that is going to include economic pieces because there is an account. There is literally we have, you know, dollar signs, dollar amounts for what it has cost to systemically, systematically perpetuate harm against black lives right? Inside of the health care system by exclusion of of appropriate treatment, or by by actually perpetuating treatment that was unnecessary due to the integrated algorithmic approach that is rooted in white supremacy, anti-blackness and scientific racism.
So that is one example of the beginnings of a conversation, but that conversation isn't complete. But to your question, absolutely. From an education angle, medical school needs to be done from a professional standpoint, needs to be done from a regulatory standpoint and needs to be done from a governmental standpoint needs to be done. All pieces are going to be required to get on the table and as part of this conversation around reparations. And that's why I shared the resources so that folks can also do their own sort of reading on this. There are quite a few papers and a couple of very good books have come out on this now.
JACKIE GIRGIS: Thank you so much.
IJEOMA OPARA: Great question. Thank you.
JACKIE GIRGIS: Thank you. Just a couple of reminders. One for closed captioning. Just have to try to be mindful to go a little bit slower so that the closed captioning can can happen. And I also wanted to commend you on when your child came up and just like taking time to talk that down. That was very sweet. I like that a lot. So I don't know if LLana you would like to go next? You're on mute.
IJEOMA OPARA: I want to, first of all, apologize for speaking fast. You know, I'm Nigerian. We have this bad habit. And then also, I think also me. Let me just play my my country, it's just also me. So I'm a work in progress and I will do better. There's anything anybody wants me to repeat. Ok. See, I'm talking fast again. I'm also really I'm conscious that the other problem, because I usually have a lot to see and I'm trying to force it in 2 seconds. So it's a balance and I'm a work in progress. So, you know, pray for me and keep helping me. But I appreciate your patience.
IDIL ABDILLAHI: It's a deal. Speaking just really quickly, a reminder for folks that the discussions will be uploaded and we will also have the closed captioning transcript for folks to be able to access. And that's certainly not in lieu of today's ASL and deaf interpretation, however, something that I thought is important to share. So LLana that I'll go ahead and invite you back to the to the discussion.
LLANA JAMES: Yeah. Hi, Jackie. I'm looking forward to getting into the conversation that now is going to kick off. So if you want to pose the first question, I can move in and then Idil. And we can incorporate the comments as we go, because Dr. Ijeoma Opara did an amazing job, gave us a wonderful foundation, and you have a very clear understanding. And I will reiterate, you must fundamentally understand the difference between what happens as a result of white supremacy and what is actually materially real. Because often what whites kind of see causes is the forcing of us to live in a imagined world evidence that is not reflected in actual empirical data. And since we're talking about black women, nonbinary people, and the implications of risk evaluation and what that means for facial recognition as well as medical imaging, and Dr. Opara alluded to that when she described the issues with radiology and excessive radiology use in order to image the bones of black folks. And so I'm looking forward to diving into the conversation.
JACKIE GIRGIS: Yes. So maybe my first question would be on thinking about AI algorithms and the way that generally they become publicly available or used, I guess, as decision tools for clinicians or in health care generally. As Dr. Opara had mentioned, a lot of these data are being collected through anti-black racism. We're seeing a lot of data that's just not being collected. It's basically through the way that patients are treated, the way that specifically, I would say black women are treated in the health care system and then trying to feed that in to develop an AI algorithm. But if we are learning from that, what can we learn and how can we adjust what data we have based on knowing this anti-black racism, knowing that these data are not actually accurate and not actually beneficial to the people that they're supposed to be beneficial to?
LLANA JAMES: I think it's important for all of us to take time, especially those of us who are in the work on the side of computational sciences and the work of systems flow and patients flow to explain and share a bit of the architecture. So I'll do that right now in my answer. And so what I mean by architecture is often we're meant to think of data as information. These are actually two different things. And what that means is information is, for instance, the presentation of my name and the bottom of the screen where it says LLana James. And then it has my pronouns and she, her and they. And so that is information because it's in context and it's below my picture. So we know that in terms of custom, that means it's referring to my name. That's information. Data, on the other hand, is what we deal with when we're working with code. And you might have a string of equations, zeros and ones and various symbols, and that is in fact data. And so, for example, if this was written in code, it would not look like Llana James she, her, and they.
Right. It would look like there's a lot of extra letters and none of them look like ones I'm familiar with. And so that is data. And so data are things that are created for the purpose of processing. They are not the same things as information. Information is what we're typically used to handling and using when we conversing. So another example is when someone sees their address, you would have, you know, the street number, your unit number and then the street name and there's a convention for that. Again, if this was data, all you would see is a set of numbers and no particular convention. And almost you would wonder, does this person not understand punctuation or any of the customs? And so data is key. Here's the key is without context, it is without context and it is raw meaning that it can be then manipulated into any function or form. Information comes with a convention at least has parameters that one can work through and understand, and one need not have a particular set of computational knowledges.
And so often when we're talking about data, we're actually talking about computationally accessible and usable data. We are not all talking about the same thing. So I often hear people talking about data when what they need is information and talking about information as if it's data. And while it may seem semantic, it is not one Many of us who are trained in the conventions of whatever the tongue is that we're used to sharing can communicate and discuss without a level of specialization. Data, on the other hand, requires you to have specialization of a language, i.e. any python, R any kind of computational language, and there are many as well as understanding the conventions specific to that particular subdiscipline of data. And so there's a reason why we have this change in language. There's a reason why we as human beings are encouraged to talk about data and not talk about information, because we have a long history of information and how information should be regulated and how it's shared.
And we have many laws around how that works. That's why in Canada and I'm Canadian by nationality, is we have something called the CRTC, you know, the Canadian regulatory telecommunications body, and that's about managing information in ways that we understand. Data, on the other hand, is an invention of the business sector because typically think about ten years ago, did you talk about data unless you were in the sciences or you were talking about a data set? No. So we're seeing a shift in language where we're taking away context, taking away conventions in which we understand and ways in which we know to address things in ways that are right and wrong and where we need to have consent. And increasingly having our language shifted to the language of transactional monetization. And that's why we talk about data, because they're the units in which we transact for the purpose of business or computation. They are not supposed to give us a connection directly to humans, which is who information is for.
Data is for computation, computers and specialists and information is something that we all are engaged in. And so that architecture of data and how data moves is important. And so very often what happens is that laypeople are left to think that data is information. And so what is obscured is that data is more about capital. So that means generating profit. And we know that in a capital system, the cost of that profit is never actually, ever assessed. And what I mean by that is we're encouraged to, you know, order things online or to use our computers for everything, but we're not encouraged to think about what is the cost and who is paying it. So when we order, we know that there are Amazon workers who are in warehouses that are 100 degrees who are moving at inhumane paces. For the purpose of profit and to get something to us in a day or less. And when it comes to computation, we're never made to think about the context. So when we hit the keyboards and we're able to do a particular kind of computation, we're not meant to think about the dams, the destruction, the electricity, all of the carbon that's being and methane that's being produced, and most importantly, all of the minerals that are needed to operate these are computational devices that are actually going right back to the same sites of violence for black folks and across the Americas to extract resources.
So the architecture of data has a lot of violence in it and violence that is actually targeting the very same people. Those are the descendants of the trans-Atlantic, the continent of Africa, the Americas as a region south, central and north. And to be clear in terms of what global mining points out in their official documentation, that the largest sites of all of the, quote, rare earth minerals and necessary minerals for current technology, the majority of them lie in Africa, with China bringing a close second. The difference being that Africa has been subdivided into 50 plus different countries, and China has one particular set of political governance for the lack of a better term and is extracting those more readily, not having to address the same legislative political boundaries and whatnot. And so understanding the architecture of data is to also understand how the world is currently structured and how data is being used to obscure the language of speaking about data, to obscure all of those environmental violences, all of those mining accidents.
I mean, let's be clear the Democratic of Congo's conflict is not the democratic of Congo's conflicts. It's the conflict of Russia, China, India, the United States, Canada and all of the other countries that are major players in tech. And there is a couple of links I can try to share that can be shared with those who have registered and posted on the website pointing out how this chain works. And so if we don't think about what's behind the veil. What is meant to be disappeared. Then we continue to talk about data rather than talking about all that it entails and whether we mean information. Because I'll give you an example. When we think about what can be adjusted, the first thing we need to adjust is the reality frame of our lens. Much of what's presented to us in technology and I do use these technologies. I want to be clear I have the pleasure of working on really interesting projects with Dr.. Amber Simpson at Queen's University. She's a computational biologist in the Cznada research chair, one of the few women that do that work.
And my role is to look and we look at cancers and metastasize ations. I also do diagnostic work. So I'm heavily engaged. But it's not without deep thought. It's not without contemplating what are the ethics of this? What is actually possible? Am I saving? Those of us who get to be in the Americas because we're in first world countries? Air quotes For those who can see what I've just done with my hands and throwing our relatives our kin across the world under the bus. And so this is a real issue. And constantly when I'm in meetings, I have to remind my peers, whether they're physicians or computational scientists or anywhere in between, Is this really the best way to go about this? Just because we can. Doesn't mean we should. So one of the first things that we need to adjust is our frame of reference and who is paying the cost and who is getting the benefit. And to actually calculate that with the people who are involved in that entire process. Because what we see continuously, I was in a meeting and actually presenting and it was in radiology.
I did a presentation in radiology as well as a more general presentation, and I also had the opportunity to attend another talk. And it was a it was both wonderful to see colleagues doing amazing work in cancer and wanting to do work that will change care. But when we talk about things like real time cancer diagnosis. We need to adjust our lens and understand who that's for, what that's about and what the cost is, because it takes a particular kind of technology, right? And that technology uses particular kinds of minerals and produces a massive carbon footprint that will raise the temperature of the planet greater than two degrees. And I'm not talking about one sub area of artificial intelligence, right? So my areas of natural language processing and medical imaging alone. Just one alone. You got two degrees. So if you go across the 13 major areas of artificial intelligence, you've got a planet here. You've got a planet on fire. And so that's not being talked about in Egypt and wasn't talked about.
And it continues not to be talked about. And that's because we have to recognize the big six at the big nine. So there's nine major corporate players in tech that pretty much define the field supply chains and whatnot, including the stock exchange. Some would argue, and that's not a conversation that many of them want. And so therefore, we are left with conversations about data. So what do we have to adjust? What do we have to calculate that if we're going to center the lives of black women, whether they are cis or trans or however we are identified as black women, as non-binary people, as people living with different kinds of disabilities and working through different frames of reference. If we cherish all of those and understand what it means to be treating people, it means we have to reframe the conversation about our kinship, our ecosystem, about what life and living is actually about. Because unfortunately, technologically, we have seen time and time again, with the advent of every new technology, a failure to calculate the loss of life and the loss of environment.
And just to kind of bring that home. It's a rude awakening when you actually do the math of the amount of energy burned to even develop some of these technologies and to know that in many of our own communities there is mold in housing, there is unclean water, there is insufficient cooling in the summer. But yet in our very downtown core, we will have machines that allow for us to be on the Internet, to have air conditioning while elders swelter and babies get overheated. And so there is a tradeoff. And we're being encouraged to think about data, not about information. And to leave context in order to refocus on a very white and shiny future of technological determinism. So I hope that gives you a really good sense of the architecture of the context and some of the language that is used to obscure so that we might delve into further conversation.
JACKIE GIRGIS: Thank you so much for that. I wanted to see Idil if you wanted to chime in, if you had anything that you wanted to bring in at this point or if we should just have a conversation.
IDIL ABDILLAHI: Yeah. Well, I'm going to try my... Well firstly, just for those who are looking on screen, I currently have my camera off just for access and internet reasons. So what you see on the screen is just an image of me with my hand on my head and a colourful scarf, earrings, red lipstick and a coat on. But I will be continuing to speak without the camera on. There's not much to say because my sisters did that. Like I don't really know if there's anything else for me to say. So we're very thankful to Ijeoma and LLana. I guess maybe for me, maybe what's easiest for me to draw on, which I maybe wasn't expecting to draw on this evening, might be, I guess, a recent article, actually, that I've submitted to the American Journal of Community Psychology, which actually looks at sort of the closest area of interest to me, which is that of mental health, and particularly the location in which I live and write from, in what is so-called Canada right now. And so maybe what I'll just do is maybe pick up on a couple of critical points that have been brought forward by my colleagues this evening and maybe just try to work through that in the context specifically of mental health.
And AI-based interventions, particularly in that context and maybe further kind of elaborate on how I think that impacts black people in particular. And so folks are interested in and sort of reading the broader piece around that I really invite you to have a read through that special issue. But I think to pick up specifically from Sister Ijeoma. One of the things that particularly resonated with me from your discussion, and from the points that you highlighted was, quite frankly, put simply, race is a social construct and more specifically a social construct which has material and deleterious impacts and outcomes. And so I think what the three of us here are actually wondering, or really sitting with and lamenting about today is ultimately like what is gained from the sustained commitment to reinscribing race as a marker of biological difference. And quite frankly, who benefits from that? And if we continue to approach it this way, how then do we understand calls for increased race medicine, or race-based data as a further technological tool or apparatus that further entrenches racist ideologies under the guise of "equity and diversity." So Dr Ijeoma, that's sort of like one of my first kind of like responses and lamentations to that kind of put really simply, again, from a practitioner perspective, and from a researcher perspective, and thankfully, you know, I think back to when I first learned research, right?
Like I actually thankfully entered learning research from a paradigm specifically of a woman of the Global South who actually brought me to understand this through ideologies of like the untouchable. And so quite early, sort of like as an undergraduate student, and as a black Muslim woman, all these other kinds of identities in which I occupy that idea of untouchability kind of resonated with me, quite frankly, throughout my career, right? Or like even my research career, and like how I think about what untouchability means. And so one of the things in which I write about in this new piece is really like the impact of that idea of untouchability, like as a third-year kind of student sitting in that class, then further thinking about like, the impact of untouchability, and what that then would do for like interventions, to work, and to like research and how we think about people, right? Again, 'cause the people that I'm closest to are those who are untouched. Those who touches refuse, those who touches criminalise, those who touch is actually revoked by virtue of madness, by virtue of disability by virtue of being othered both in gender and race and religion, and status, etc.
But maybe to return to kind of the latter part of the question. And to sort of continue to expand on the example that Llana provided. Again, I really wanna use the example to really think about and collectively reconsider like how it is that we imagine and sort of think about notions of artificial intelligence. Largely, I guess, 'cause for me, I think what most people think about or maybe it's 'cause what I thought about originally before I kind of started diving into AI computational science and like broader ideas of like people management, not through technology which was in later in my graduate studies, I really kind of imagined like stuff on TV, right? You know, and that probably doesn't sound like super academic of me. But that's actually significantly what I imagined insofar as I wasn't at a place yet where I could truly assess the kind of ubiquity of what these systems' functions and tools are. And so to that end, I personally began thinking about that and considering, like, what AI was from perspectives closest like nearest and dearest to me.
And I'd invite you to do the same as we have this discussion this evening, which is to really think about, like what do we do in our personal and intimate lives? Like what are the apparatuses most closest to us? And so one of the things I'd ask you to think about is mobile devices, mobile phones, and more specifically, smartphones. And the reason why I want us to think about smartphones particularly, is because what we know and like through kind of research and data is that like about 4 billion people use mobile internet. And these numbers are like quite frankly only expected to increase by about 2025. And so in that context, I guess I asked us to consider, you know, the kinds of biometric data that is collected through our individual active and passive use of these kinds of devices. And so by, you know, active use, I mean, by like the information that we sort of provide willingly and with consent to apps vis a vis this sort of ideas of passive data collection, which are often the more like unseen kinds of ways that people collect data.
And these are often like sort of submerged and embedded within apps without our knowledge. So sort of to like, I keep saying sort of, but to invite you to think about like examples, like wrist-worn devices, right? So Apple, what is it? Apple Watches, Fitbits, etc. These kinds of technologies actually have specific data indicators within them that look at something called like at the accelerator meter of data, which essentially monitors and assesses the frequency and intensity and duration of individual physical activity, right? And so we may not think that that is information or data that is maybe being put or collected or stored somewhere else. But when we think about the ubiquity of a cell phone, or wrist-worn device and what that does, I think it's really important to think about like what are the kinds of embedded technologies in these devices, right? So one of the major things, if we think about, is like, I think it's called like electrocardiogram or ECG data. And this is like, often found within like Apple Watches.
It has the ability to kind of continuously track your heart rate, etc. We also have things that are like considered electrodermal activity, or EDA, which refers to the electric kinds of properties of our individual skin, right? And so as we talk about race, and all these different kinds of things, like I also in that case like want us to think about how electoral dermal data has an impact on racialised skin, right? So, and this really has an impact, or the idea of this kind of intervention, is that this kind of electronic dermal data can in fact reflect cognitive and emotional processes within our nervous system, right? And then they're kind of those more, you know, known kinds of applications, right? So GPS data, location, we all know that our phones have cameras in them. But one of the new, unlike actually more interesting pieces of research and data, that is by Ruel, spelt R-U-E-L et al. And this is a 2021 article, which actually found quite interesting is the actual use of cameras for facial expression in order to signal particular kinds of mental health illness.
So for example, this particular research team (UNKNOWN) developed a system that opportunistically captures facial expressions throughout the day using a frontal camera of the phone. And that these kinds of smartphones are then able to kind of really provide a larger global scale about like facial expressions essentially throughout the day. And so I think then, in that context in my talk about the kind of like this idea of having this like really ubiquitous thing in your hand, the cell phone that we use, and like, we may turn off the location, and we may turn off our GPS. But we may not worry about our mindfulness meditation app that we have on our phone that we think is just reminding us about certain kinds of things, right? And so aside from the pandemic, I think it's really important for us to think about the fact that, particularly within the United States, we see that there's been a, like 14 or $15 million rise in venture capital funding towards specific like health-related mobile apps.
And more specifically, among that kind of broader number, we see that there is a focus or a spotlight or like an interest in mental health-related kinds of apps. In fact, so much so that they've created a new category of health called mHealth. And this particular industry, in fact, at the end of 2021, raised $5.1 billion in, you know, quite clinical indications as well as individual service users. And again, this is only expected to increase far, much more. And in this context, a large part of what we see and what these apps are actually doing is they're monitoring things like compliance. They are largely monitoring things that are self-reported, it's also really important to highlight the piece that there is actually no clinician attached to or assessing the information that individuals provide. And so, therefore, there are bots that are responding to this, and those particular bots. And I think I'll stick a pin in that piece 'cause we can talk about it later, have particular kinds of impacts and responses to racialise kinds of people.
And so I think that that's something else that we can consider. And I think ultimately, the largest pieces, while mental health apps are the fastest and largest growing number of digital apps in this sort of apps sphere. What we know is that there is no regulation or evidence-based information about the utility of those kinds of practices. And again, I'll come back a little bit later to focus more on like the kind of race pieces. But just I thought maybe in response to some of this, it might be quite crucial to give a bit of a landscape about what's happening here. So I'll go ahead and leave it there for now and maybe return to a few of these comments later on. Thank you.
JACKIE GIRGIS: Thank you so much. I wanted to remind everyone that if you have any questions, you can put them in the Q&A. And we're actively going through that. So if you have any questions for the panellists, please go ahead. I had another question that is maybe a little bit different than what we've been talking about already. So if you guys wanna go back to something that was already said, feel free to ignore my question. But Dr Opara, when I went to your LinkedIn, I saw you had posted recently about the number of black female physicians, and that those numbers are actually going down. So it's quite small. Was the 2%, I think you said of all physicians in the United States. And that's a really small number. And the fact that it's going down is really upsetting. It made me think about when you were talking in your presentation about the infant mortality. I believe it was infant mortality, I'm not sure if it was like in childbirth, at birthing a person dying during childbirth, I can't remember which one it was, but that people treated with a black physician, they had cut that mortality in half.
And so I was wondering if you or maybe the other people have some things to, you know, talk about more on that, because that's really, I think, a very clear example of anti-black racism of culturally competent care of things that are really needed for different communities to be able to survive even, very normal medical situations that people are going through.
IJEOMA OPARA: Yeah. Can you hear me? OK?
JACKIE GIRGIS: Yes.
IJEOMA OPARA: OK.
JACKIE GIRGIS: Yes, We can hear you.
IJEOMA OPARA: OK, great. Thank you. I think that's a great question. Before I answer that one, I wanna go back to what Dr Idil was speaking about, because I think it was fantastic. And also, of course, Sister LLana is always brilliant in really her deconstruction of pretty much any topic that she puts her hands on. And I appreciated that differentiation of data and information because I think it's linked to, you know, what Dr Idil was talking about. And that's I was listening and I was grateful for really bringing up this idea of smart apps, smart smartphones and the apps. Because it's a beautiful sort of intersection around what we're talking about when we're talking about, you know, race-based medicine, how it gets cooked into our technology and sort of the learning. What are the cohorts that I used to teach, you know, artificial intelligence and who is providing that data and the intersectionality with capitalism? You know, as Sister Llana said, whereby data oftentimes are the language of data is really the language of a transaction.
And that is usually used to obscure the intention of profit-making, right? The intention of capitalism at the end of the day. And I think, you know, one of the best things in the entire history of people, especially in this part of the world, I think that's ever been said, is follow the money. Like it just... if there's nothing else we don't know, in life, if you could just know this, just follow the money. If you want to know and understand what is going on, why this, why that, follow the money. Start with that. And then you can go from there to unpack. And so, you know, I was quickly looking up some information based on what Dr Idil was speaking about. And, you know, in the United States, I don't, of course, I'm not in Canada, so I can speak to Canada, but in the United States, because of digital redlining or technological redlining. And what is that? Redlining was the government policy and law, that pretty much-officialised segregation, you know, residential segregation. And then tied every other like resource in society to residents, so that essentially, you are effectively segregating everything else.
So the quality of your hospital and your clinical health care, a resource is tied to your residents. The quality of education is tied to your property taxes, so where you live. Everything's where you live. And that's why we say that what is gonna determine your health outcomes and experiences is your zip code, not your genetic code. And I don't know if y'all have zip code over there, but over here, you know, the residences, and then cities and, you know, space geographies, organised by, you know, zip codes. And so we say, your zip code will determine your outcomes more than your genetic code, so to speak. Like that's the only code you know, you need. And that is by design that is by design. So the government gave out or sponsored or, you know, there's a whole detail to it, mortgages, you know, up to allow the banking system to offer mortgages of people along the lines of race. And by so doing, they pretty much carved out cities and red lines, some areas were red, some areas were green, and some areas were yellow.
And so the red areas were for the Negroes and the Jews, OK. And if you apply for a loan to buy a house in where it was green or yellow, you were denied. That practice was supposed to have been deaded in the 60s. This went on from the 30s or so to 60s. But it continues to today, just you know, it's not official. But the legacy of that continues today where black folks' houses continue to be appraised hundreds of 1000s less than white folks' homes. And the list goes on and on. And so I'm saying all that to say that that determined a lot in terms of again, segregation, right, including technology, including access to internet and broadband, for example. So what does that lead to? A larger portion of our population of black and brown populations depend on smartphones for the internet access. Right. And there was a recent article that was written by a brilliant investigative journalist and I tweeted about this that really broke down how digital redlining, and you all text me or message me if I'm talking too fast.
I'm trying to be conscious, digital redlining. It's how it continues how you can literally pay $50 for or rather one neighbourhood was being charged, I wanna say about $50 for five megabytes, and then nine minutes away in a richer, wider neighbourhood, they were being charged, like I don't know, you know, $10 or so for about the same. You know, there's so many ways that these things happen. And then they're explained by saying, oh, demand, you know, there's so many ways, right, that's called structural racism, you know, the shade is structured. So having... With that being said, the larger number or percentage of black and brown populations or communities depend on their smartphone for internet access. And a Pew Research poll showed that part of a significant portion of their use of the internet is for health-related information. Right. And when you do that part of that also, and this will be interesting that Dr Idil brings up so many interesting thoughts here. And I don't know and I have to do a search.
And Dr Idil maybe if you've seen it, you let me know about studies about the use of health apps specifically and how it breaks down by race. I haven't seen that yet. But I also haven't done a good search. So that's homework for me. And so... and Dr Idil I see that you will fill me in a bit. But just to finish the thought. So what does... what am I seeing? Black and brown communities that are already rendered socially vulnerable because of white supremacy and structural racism. I place at higher vulnerability, right, at a higher vulnerability for the interaction or engagement with these tools that expose us to releasing information or data, and LLana like and correct me which one is appropriate here, to the corporations that then translate that into profits. And and this is one of the ways then that, you know, the complexity of these pieces. And what has happened historically is that we have always sort of been the teaching material, right? We provide the data and the information to these institutions of science and academia and Business and Enterprise through to the North American chattel slavery system and beyond.
We provide that information from our bodies. Literally, we did that in medicine and science, right? The picture on my introductory slide is that of Henrietta Lacks, and I hoping that you all know who in reality, Henrietta Lacks is. She's the lady that whose cervical cells pretty much was the foundation of all modern discovery at this point, right, including the COVID vaccine. And it was extracted from her without consent and without compensation, she and her family. And so we've always been the teaching material, right? Whether we realise it or not, we've always... our bodies, our minds, our behaviours have always been used to extract information and knowledge, but has never really come down to back to benefit us. So it goes to benefit usually whites predominant, you know, communities and peoples, that the material is extracted from us, you know, without compensation, and then profit is provided at the other end. And so, understanding the ways in which that whole process is obscured, either as LLana as it and how that intersects with justice in the tech, you know, tech space, and health, I think is a critical conversation.
So I just want really wanna appreciate that offering with that. And then, you know, I'll quickly respond to you, Jackie, in terms of the less than 2%. Right. America and United States of America, physicians essentially 5% are black or African American or blacks, and less than 2% of that are black women. And that number is dwindling because what is happening is that because, you know, anti-blackness still continues unabated, though it's still ever ongoing. Many of us experience misogynoir, you know, we experience sexism and racism, you know, at the workplace and are forced out of training and or working in very racist toxic work spaces. And so, the numbers you know, are, unfortunately, you know, dwindling. And to your point around what happens when the mortality rates of black babies are cut in half, when there's a black doctor that takes care of them. Those numbers are improved when there's more of us in the space. So in spaces where there are black physicians present and active, and there is an appropriate representation, you see better retention of us in the spaces, in healthcare and academia, which is kind of like a vicious cycle, right?
Because we're also, you know, being removed and extracted from these spaces, yet it requires us to be present to help retain us. So this vicious cycle to me, and I think often of Dr Idil's work in madness it's maddening. It's maddening, you know, and there's conversations to be had about how we address that. So I think those were great questions. Thank you. I'm really curious to know. I think Dr Idil had some information to add to that conversation and also LLana's thoughts on this.
IDIL ABDILLAHI: Yeah. Actually, one of the things that I wanted to share about in particular, like the increased use of mobile apps in mental health is actually for the purposes of like access and equity. So it's this idea that diverse populations silently, black people particularly, don't access mental health services and therefore using the app might create the opportunity to do as such, right? Firstly, and I think the other part about it is that like it offers individuals an opportunity or service providers systems to monitor compliance of patients, people and communities, right? And I guess one of the things that you were saying around the idea of diversity, which are anti-blackness or blackness, right, they're still referring to that as cultural competency within the sort of digital apps sphere around race medicine, which I think in itself is its own problem and crisis. That said, they're currently in sort of my last check of this, which was, in early 2022, there are only two studies that actually focus on the experiences and or uses of mental health apps.
And I'm not talking about other kinds of app be it diabetes, or because there are multiple kinds of health monitoring apps. Again, I'm speaking to the area of my expertise and interest, but there are only two studies that actually look at the experiences of black people and app utilisation among the myriad of research studies and systemic reviews and meta-analyses on these issues. And so I think I guess one of the other critical points that I and maybe again, from the location that I'm in and I've written about this in public space along with two of my amazing students about the Pocket Well app, which is actually what I'm writing about in the American Community Psychology Journal which is that, the PocketWell app in Canada, which is a mental health app was actually launched moments after the murder of George Floyd. And specifically, when the Canadian government announced the purpose of this app, they announced that as a response also to racial equity. And so in that moment, I thought that one of the important things to do was kind of create an intervention around how we think about like health access, how we think about the exploitation of vulnerable people more generally, right?
And I'm using the word vulnerable here in the context of like dominant discourses. But it's quite telling that the highest-ranking number of health apps are mental health apps, right? And mental health apps without evidence. And in fact and I really wanna tie this to this narrative here, which is another area of interest for me, which is this idea of digital therapeutic alliances, which in fact, completely remove the individual, the practitioner, the therapist, the social worker, the whoever from the conversation. And so, again, in that kind of therapeutic relationship and that therapeutic engagement that the, you know, the subversive discourse is in fact that if we use machine learning and AI that removes any kind of bias or issues, etc. So take the person out. Let's use the machine as if in fact it's not humans who use generalisable data and algorithmic data, predictive data, racist, predictive, anti-black, sanest, you know, like all the isms data, right? It's these individuals who actually input this.
So these aren't benign, ubiquitous, you know, apps that are actually, you know, without their own kind of inherent biases. And so I think that that's really important. And the other kind of really unique point I think that's really important to mention is while there certainly is like a really huge uptake of the use of like mobile phones and mobile devices, I think it's really important to name and this is like again from a research study by Stanworht that identifies that there is like 184 million fewer women who own mobile phones in comparison to men. And additionally, I think above and beyond that, what I'd like to add to that is that there's also a significant kind of like literacy gap in the use of these apps, right? And so we have to, you know, taken together really think about ideas of like... ...who we, so indeed, lots of people have mobile devices, lots of people have smartphones, not everybody has subscriptions. In fact, the lowest country per capita that doesn't have, or that doesn't subscribe to online apps in the world is Eritrea, located in Eastern Africa.
And so, I think that those distinctions are important, but I think that's still globally the fact that women are the ones who don't have access to mobile devices. Again, an interest for me, for my research speaks to something quite unique. So, I'll go ahead and leave it there unless there are other questions that come forward.
LLANA JAMES: I was wondering if I could share a slide just for a moment. So, you know that, and I wanna go back a little bit and offer my apologies for not describing myself. So, I'll try that out. And it looks like this. I am a deep caramel, brown-coloured woman would be otherwise described in the racial category of black. I have my hair cover wrapped and it's in muted shades of green and caramel browns, as is my shirt, which is a solid colour. And I'm wearing a multi-beaded necklace. I'm also wearing glasses. And behind me are all of my favourite things, which are my plants and a picture of my grandmother as I talk to you. So, I offer my apologies for not giving a description of myself. I'm gonna share the screen. And I'll do my best to do a narration of what is on the screen. And I'm sharing it for the purpose of giving a better articulation of data versus information so that I can continue responding. And let's do it like this. So, can everybody see that very large?
DR IJEOMA NNODIM OPARA: Yep.
LLANA JAMES: And so, this is from a presentation I did at Dalhousie Law School. And you can find it on Dalhousie Law School's website in their Institute of Health and Law. And I spoke about a few provocations. But if you'll notice the top box, so it's a PowerPoint slide. And what we're focusing on in this PowerPoint slide are two boxes. The top box is an example of data. And it provides an address but ordered in the way that data is. And the bottom box gives you an example of information. And as you remember, I described that information is contextualised. It follows conventions that many of us can understand, and we share as a language based on time, place, and space. And so, in the example on the bottom, it has traditional address written as Joe Smith, 1234 Circle Road, for example, Salt Lake City, UT for Utah, a zip code and a telephone number. The top box is an example of data. And it is ordered in the way that we would have it for a computational or raw data purpose. And so, it has UT at the front, 123, Joe, Circle, SLC, the entire zip code to entire phone number, unbroken, the zip code, unbroken, and then Smith at the end.
And so, if someone was to just receive the top box example of data, would anybody recognise that as an address? They would think, "Oh, I've got some information." Maybe there's somebody named Joe Circle is SLC a place, and is this a phone number? So, when you look at that, or you are given that information in this order, it follows no convention. It is many words, so many letters and numbers. But without context, without the social convention, without that, it is undistinguishable as information. Whereas below, we have the first name, the last name, the address number, the street, those follow conventions. So, we can look at that and say, oh, that's the address of Joe Smith. And we can then act on that without the need of further interpretation or computational assistance or languages. I want to share that. Because, you know, addresses are conventional pieces of information that many of us are accustomed to seeing and doesn't require any specialization. But when you look at the vast difference between these two pieces of information, and this is very simple, we're not talking about invented categories of race, we're not talking about clinical diagnostics, we're not talking about radiographs, medical images from CT scans, we're just talking about regular language that many of us are familiar with, you can see how it becomes uninterpretable.
And I wanted to circle back to something that Dr Abdillahi as well as Dr Opara, you know, gesture to, and that is artificial intelligence and its intersection with clinical practice and mental health. And I'd like to point out that we must understand that when we talk about artificial intelligence, we are not in fact always talking about the same thing. And so, I like to remind people that artificial intelligence is neither artificial, nor is it intelligent. And what do I mean by that? I mean that it is not artificial because it is data. Remember the difference? That's why I showed you the slide data, data, which is a bunch of letters, numbers. And in computation, there's a lot of symbols and other stuff going on. Data does not come without a context. It is disassembled to be uncontextual so that it can be moved, used, manipulated primarily for the purpose of other people's benefit, 'cause transactions produce different kinds of wealth and currency exchanges. And so, when we think about artificial intelligence, what we're talking about is what has happened in the past broken down into singular units of data, meaning uncontextualised information and recombinate and manipulated.
I'm moving my hands in a circle and going in and out to describe the ways in which the data that you saw as an address could be broken up, linked to various other pieces of data and recombined to produce more information about Joe Smith, but with no context. And so, without context, we have no meaning. And therefore the artificial intelligence component, the artificial component is the artifice of taking what is information, reducing it to data, and then creating, creating that which is not true by recontextualising it in a way that it was never intended. We follow that. So, it's artificial in that it does not represent the truth within the context that it occurred. When I say truth, I'm talking about the sequence of events. For instance, if you have your electronical medical record or you have a transcript from a conversation from working with a mental health professional, an artificial intelligence algorithm will break that up and take it and attach it to disparate pieces of information, maybe your driver's license at the, at the transportation office, your online posts.
If it's all within one ecosystem, as has come to be the case in Canada, it may be that, for instance, the owners of Shoppers Drug Mart are also the owners of Loblaws, which are also the owners of the electronic medical and health records. And your loyalty card from one and your prescriptions from another. And then maybe you've also signed up for some other loyalty options or accessing some other types of equipment. And so, in that way, your data is split apart, it's combined with these, and then you get a composed profile. And I think that's important because underneath what both Dr Abdillahi and Dr Opara talked about is something that is out of view, which are your profiles, your data profiles. So, all of this data that's taken up as Dr Abdillahi described through digital watches, through these different algorithmic computational devices that are embedded and known to you and unknown, and then creates a composite. So, it creates a composite out of recycling the past. This is why it is not artificial, because it is only taking the past, it can recombine it in hundreds of thousands of millions of different combinations because computers can move that past and then claim to predict the future by only allowing the data from the past and to take any new data and reconfigure it in the prior frame of the past.
So, we have to ask ourselves further to the question that Dr Abdillahi, Abdillahi, he said, well, you know, who does this benefit? Who does this prosper? And what is the motivation for this? Artificial intelligence is again to the second part of my statement is not intelligent because it seeks to be able to organise information so that it becomes data, so it becomes predictable. Predictability means that now one can seek to find ways to monetise, to financialise the human, which brings us back to the very beginning of how we ended up in this current configuration on the screen in this moment, which takes us back to the transatlantic enslavement trade and the violent violation of the Americas and the transformation of the global economy. And so, with artificial intelligence and the computation needed to run it, what we have is the ability to be pre-emancipation during the period in which the world had agreed and participated in the trafficking and abuse of children and women and men and non-binary folks.
And we call that the transatlantic enslavement. And it was disgusting and it was vile and it continues to exist. We are in its afterlife. But what artificial intelligence does is allows us to remain, actually, let me correct that, allows us to go back to where we already came from, because at the end of the day, we have a corpus of 500 years. A corpus is how we speak about data in its rawest form, a corpus. It's also used in literature, corpus. And it's a massive 500-year trove of data that has been built and bred exclusively in the image of white supremacy. And we know that because we have hundreds of thousands of documents and we are here living in its afterlife. And so, to understand that is to understand why we're obsessed in global markets with data because it produces predictability. And enslaved people are predictable because they don't have choices to act otherwise. And so, when we continue to gather this data, whether it's taken from us or it's voluntarily handed over, we create the fodder that is necessary for that predictability.
And so, that predictability allows one to say, well, this is a risk profile to the beginning of your question, Jackie. So, a risk profile is based on what, what is expected of you to do and what is actually happening and the difference between. So, if the desired outcome is one which you're not attaining for whatever reason, whether it's your mental conduct or how you're presenting yourself, the risk is the assessment between. And so, now, having facial recognition software back to the original questions brings about a return to phrenology. And phrenology was a practice where they used to think they could use your skull to assess your criminality, your sexual orientation, but now, it is still your skull because what is being mapped in facial recognition, again, I'll describe what I'm doing, I'm pointing the key points of the face, which is your forehead, your occipital, your eye bone structure, your nose, the space between and your jawbone, as well as the proximity between your neck, your chin, and your chest.
These are key areas that are used by cameras to triangulate, which is why now when you're wearing your face mask, if you do use that feature on your phone, it can still determine who you are with your face masks because it's mapping your face and it's mapping your bone structure in your face. And so, what that also means is that when we talk about artificial intelligence and mental health apps using expressions throughout the day, as we've seen in other research, it is then inferring what they believe that expression is based on what they knew in the past from a very specific frame 'cause remember how we express ourselves as bound to culture. In some cultures, we do one set of expressions and they communicate one thing. But the unfortunate thing with artificial intelligence is it compresses to make only one culture, the central one. And that is, in the Americas, in the English-speaking world, it's that which exceeds and continues to leak out, which is white supremacy of Europe and the Americas.
And so, we need to remember it is not artificial, it is produced from a 500-year corpora of white supremacist data. And as you heard from Dr Ijeoma, the actual medical associations and societies upheld racial exclusion, upheld the idea that black folks and women and differently-abled people, not only inferior, but needed to be under the control of others. And so, this is what is in hundreds of thousands of pages of peer-reviewed medical journals. And as many of us know, homosexuality was only decriminalised in the 1980s. And so, everything in the corpus of literature before that speaks of being queer, trans as being medically and clinically deficient and unwell. And so, we have to understand and never set aside that the only thing artificial intelligence can work from is what has happened. And everything that understands in the present moment is framed in that past. And that brings us very much to understand that when we think about what it's doing with mental health applications or in clinical care, it means that it's recycling some of the most violent periods that black people and differently-abled people and mad people have survived while telling us that something can be different, but yet there is no difference in frame that can be entered because as you learn from the picture of data versus information that is pre-programmed.
Without the ability to understand computation and control it, you can't manipulate that. So, I'm gonna finish up here by going back again to answering an earlier question, which is, and so what does that mean for race-based data? That means that when black folks and others advocate for race-based data, one can, someone like me can only believe they need and need support to understand the architecture of data. And that there is no such thing as black. We don't, there's, we don't put the words in B-L-A-C. That's not what happens in coding. That's not what you're gonna get. It's something you can't recognise. But what it does do is it connects it to every other thing that has ever been connected to blackness. And we know, as I just pointed out, we have a 500-year history from 14th, 15th, 16th, 17th and 18th century of what to be black, to be associated with African, to be associated with indigeneity has amounted to. And we know that because we have constitutions that have arised, we have general compacts from the United Nations claiming as to what should be done about how we treat other beings and how we treat folks so that it is lawful and not violent.
And so, when we ask for race-based data, what we're actually asking for is to be connected to a past we never made ourselves, which we as sovereign and self-determined people had no control over what was documented and written. And we are re-inscribing ourselves on that. And so, who does it benefit? It benefits markets because, in Canada, we do have the research, redlining happened here, it happened to my parents. We have period, we have articles about this. This is not an American phenomenon. This is a phenomenon of every racially constructed colony globally from Australia to South Africa to Argentina. And so, what we are in fact asking for is a solution that may have been well-suited prior to 2007, prior to the internet when we still had cabinets and papers and things just stayed one place. Race-based data was understood as a opportunity to answer the question of how do we get justice? Why is it that when black people try to access certain systems, negative outcomes? So, how do we track that?
And so, what people were asking for, and we can look at it, we can see what our elders have done in decades past to create a frame of relief and opportunity for black people was to seek justice. But instead of justice, we were told to create, collect race-based data. So, rather than intervening in real-time, we were encouraged to collect data about what's happening to black people in COVID. And I always ask people, why do you need data? And they say, well, we need to know what's going on. And I said, well, you know what? If you're actually part of the conversation, if you're actually part of the community, you know what's going on. I know what's going on in black communities because I am present, I am canvassing, I am doing appropriate types of inter-engagement and relationship building. And so, I know, I don't need to sit far away somewhere with other people's information out of context and claim that that data can do something independent of the people for whom it belongs to. And so, to put that all together, when we don't understand that race is not biological and we are continually lulled into this idea and conflating that race is biological, then we attach race to a lot of things that are not biological and make inaccurate inferences and produce really poor clinical practice and medicine.
And it just keeps getting worse and getting worse and getting worse. And so, by offering up that data, either involuntarily, as Dr Abdillahi talked about passively through devices that you may purchase or subscribe to or it's taken from you, what you're actually doing is augmenting strengthening the actual infrastructure of racial dispossession and inequality. And I have to remind us all that if you want something to stop, you have to stop nurturing it. So, if you want to stop the violence that is tied to race, you cannot continue to nurture it by giving it more and more data so it can create information that is inaccurate about who you really are and only about who you can be imagined to be through the transactions that produce wealth for the 1%. So, I hope that ties together some strings in terms of data, information, race-based and the deep concerns we should all have and also suspicion about why many people don't understand the architecture and the value of data that is separate and apart from their lives or their control.
JACKIE GIRGIS: That was great. Thank you so much, Dr James. I had a question based on that, but I don't know if the two of you would like to chime in first. And just a reminder, we have a little bit less than ten minutes left.
DR IJEOMA NNODIM OPARA: Yeah, I wanted to, you know, I always love to be in the presence of LLana because she, and she always gives a sermon on, on like six mounts, you know, you listen to her and then you go ahead and take an exam and you yourself become a PhD, just off of one, you know, the dissertation that she offers. LLana, that was, that was, that was excellent and outstanding as, as always. And it got me thinking because like I said, I have a grant, I'm a co-investigator on an NIH. NIH is a National Institute of Health which is the government's research arm here in, in the States. And so, we have, we have a two-day summit for all the research, the studies that have been done in my, in my cohort. And so, I was listening to a couple, and I was, I referenced this in my talk couple of the presentations, but there was one that caught my ear, and it was looking at vitamin D. And there's a whole thing about vitamin D, which I, we don't have time to get into. But suffice it to say that the running kind of narrative is that, you know, black folks are inherently vitamin D deficient that we just have, we have low vitamin D.
This is, you know, dark-skinned individuals have low vitamin D. Again, there we have, there's a whole list of these, of these stories that have been internalised and with barely any evidence. And that's not the sad part isn't that there's no evidence. The sad part is that nobody demands for evidence, right? Nobody questions it. We will question the hell out of... You know, well, how do you know that, you know, that medication does that thing or that is the channel that receives that ligand and then, you know, but we will not, it is never questioned when it comes to, to race-based science, "pseudoscience", which is, which is essentially basura, is, is, is trash. And so, the gentleman shared his, his study and kept saying that he was looking at vitamin D in African ancestry through the electronic health record. So, it's like, and then European ancestry, so does this sort of back and forth about ancestry, but your database, your sort of, you know, you're studying off of the electronic health record, how do you know what the ancestry is?
And so, that's one of the reasons, again, one of those key slides was race is not ancestry. Race is a sociopolitical construct created by white supremacism and racism in order to perpetuate and you know, economic and political power among those that were, that racialised themselves as white. OK. Ancestry, yeah, there's a real genetic ancestry that's more so tied to geography, you know, but in the Americas, because of the transatlantic slave trade, you, how, how do you, how do you make that determination of somebody's ancestry from skin colour when 16% of African Americans have European alleles because of systematic and systemic rape, right? And the number of black folks that passed as white, because they could, even though their mom or grandmom, you know, was, you know, at the time a negro. So, the ways in which this is all conflated and then, and wrapped nicely into a study and called science today, right? And so, I'm reflecting on LLana on what you're talking about the past and how technology in all the various forms, you know, reaches back into the past, you know, reaches it into the present, you know, disaggregates and reassembles to make a prediction of the future.
I think about studies like this. And again, this, this, this, this, this reflection to be had about, you know, OK, who's, who, who benefits from, from repeating and reiterating this tale that somehow people, we quote-unquote, "African ancestry" in the United States. I mean, you can't... That sentence is nonsensical. You, like how do you, you off of the electronic health record, that is where somebody, we don't know if it's the person or if it's somebody else that take the check the US census category of black/African American, but what does that even mean, right? And so, so, so when we have these studies that then inform technologies because these results are gonna be reported and they're going to go into and be collected by those that utilize them to create "solutions" that are sold for profit. And you know, how, how, how does this, these narratives get reiterated and reemphasised. So, I'm just sitting with that reflection. And I know we're at time and grateful for the opportunity to have this very vital conversation and happy be reinforced that this needs to be ongoing in various pieces that we, that we occupy because things need to change fundamentally.
And I'll end of this note, because the last thing you said, LLana, when we ask for race-based data, what are we asking for? And I think the other way that that request is reframed is, well, we need to measure it, how do we measure? How do we measure? I think, you know, and that's what is funded, and that is what you're invited to speak about this to measure the impacts. It sounds good, but what are we really saying? And so, so these are some pieces that I appreciated from, from what you offered.
JACKIE GIRGIS: Thank you so much. This conversation has been really amazing to witness. I'm really appreciative of you guys sharing all of your knowledge and expertise. And I'm sure I speak for everyone when I say that this was just really, really exciting to hear everything about your guys' knowledge on this topic. I have like 5 million other questions, but it is 8:00. So, (LAUGHS), I think we have to wrap it up, but I think we have one slide for the next, the next series, right? So, here, it's on December 15th again at the same time. There you can see on the screen here the three presenters that we'll be talking about, oh, sorry, four presenters that we'll be talking about it. And this is the fourth session out of five. The topic is transnational geographies, gendered violence, and the movement of black women and non-binary peoples. I don't know Dr Abdillahi, if you wanted to say anything else about this or if there were any other closing statements that anyone wanted to make. I'm not sure if she's still here, up here.
IDIL ABDILLAHI: Yeah, I think just a couple of thing. Yeah, I'm still here. Can you hear me?
JACKIE GIRGIS: Yes. Yes. It was just getting out (CROSSTALK)
IDIL ABDILLAHI: I'm still here. Can you hear me? OK. Is that better now? Can you hear me better?
JACKIE GIRGIS: It's a, it's a little glitchy for me, but I can hear you. I don't know for everybody else. It might be me though.
DR IJEOMA NNODIM OPARA: Yes, we can hear you. It's a little glitchy, but we can hear you.
JACKIE GIRGIS: OK.
IDIL ABDILLAHI: OK. I'm gonna go ahead and try this now to the best of my ability. Hopefully, you can hear me. So, first of all, I'd just like to begin by thanking everybody here. Go ahead and mute if you're not speaking. Let's go ahead and mute, family, if you're not speaking. Thank you very much. So, I'd like to take a moment this evening to thank Dr Ijeoma Opara, LLana James, Jackie Girgis, I'm gonna say your name wrong. I'd also like to take a moment to thank the access team Luke as well as Angie, who's our closed captioner. I'd also like to thank the research team Apollo and amber and Maddy and Tali Cherniawsky, who's also our Disability Publics Lab Coordinator at the School of Disability Studies at TMU. Please go ahead and check out our website at the school. We would love to hear from you. And we have amazing things happening. Going forward, again, this is the third of five sessions. So, go ahead and welcome yourself to the fourth session, which will be happening on December 15th from 6 to 8pm, same time, same channel.
We have a number of exciting speakers as you can see on the screen here. I greatly looking forward to cross Atlantic conversation. And so, we invite you to return then. And also, please go ahead and engage us online, on Twitter and on Instagram, share your thoughts, share your comments and your learnings. Go ahead and tag us at @blackoculars. We hope to see all of you soon. Again, we apologise for any and all ASL issues today. We continue to work through it. And if you are attending and require any specialised or specific support to access today's discussion, go ahead and contact myself, Idil Abdillahi, at the TMU website and/or please feel free to contact Tali Cherniawsky as well. And we'll be happy to ensure that you have the most accessible process. So, again, thank you all for being here. Thank you for taking the time to be with us on this Thursday. And kindly return on December 15th. Be well. It's a deal and I'm done speaking.
French Translation
VOICE-OVER : Enregistrement en cours.
SPEAKER : Très bien, Idil, nous sommes prêts à commencer.
IDIL ABDILLAHI : Bonsoir à tous. Je m'appelle Idil Abdillahi, je suis membre de la faculté de l'Ecole des Etudes sur le Handicap et je vous apporte les salutations de mes collègues de la DST. Sur l'écran, vous verrez que je suis une femme noire portant un foulard vert et noir, des lunettes à monture noire, un crâne chauve, une robe noire et un collier en or portant mon nom. C'est un plaisir pour moi d'être ici avec vous aujourd'hui et de vous souhaiter la bienvenue à notre troisième panel de cette série, un panel de cinq discussions dans la série des conférenciers de Black Oculars. Je vais commencer par la reconnaissance du territoire. Alors que nous sommes réunis ici aujourd'hui, pour écouter les orateurs, partager... Partager leurs réflexions, réfléchir et apprendre de leurs perspectives et nous engager dans une discussion critique, nous reconnaissons que l'École des études sur le handicap se trouve sur le territoire du Traité 13, un traité établi entre les Mississauga de la rivière Credit et la Couronne britannique. Nous sommes entourés par les Trois D... Traité 13A, Traité 20, également connu sous le nom de Traité Williams, et Traité 19.
Je vous parle aujourd'hui de la ville qui s'appelle actuellement Tkaronto ou Toronto et de l'université, qui sont, qui se trouvent sur le territoire Dish With One Spoon, qui est un territoire entre la Confédération Haudenosaunee et les Anishinaabe, y compris les nations alliées, pour être partagé pacifiquement et protéger les ressources autour des Grands Lacs. Comme toujours, le but d'une reconnaissance de territoire est de nous aider à faire une pause et à reconnaître comment... Comment le territoire... Et de reconnaître les territoires sur lesquels nous nous trouvons, et aussi de nous retrouver quelque part, et si vous vous trouvez ailleurs qu'à Toronto en ce moment, j'espère que vous êtes capable de reconnaître où vous êtes et de reconnaître à la fois l'histoire et la présence des communautés autochtones dans l'endroit où vous vous trouvez. Bien que ceux d'entre nous qui ne sont pas autochtones de ce territoire soient arrivés en tant que colons sur des territoires autochtones de différentes manières, nous reconnaissons que certains d'entre nous, certains de nos ancêtres et de nos aînés ont été déplacés de force et amenés ici de manière involontaire ou par la force, en particulier ceux qui ont été amenés ici à la suite de la traite transatlantique des esclaves.
Nous reconnaissons que nous sommes tous des gens de traité et nous sommes reconnaissants de travailler et de vivre sur cette terre. L'Ecole d'Études sur le Handicap est un programme d'obtention d'un diplôme de premier cycle avec un solide dossier d'études post-doctorales. L'école a un engagement, un engagement fort en faveur de l'équité et de la justice pour le handicap, pour les personnes handicapées, démentes et sourdes, mais elle est toujours orientée vers l'affirmation et l'affirmation des troubles désirables que le trouble du handicap dément et Deford parmi nous tous. Ensemble, nous commençons par nos corps et nos esprits, pour réfléchir de manière critique à l'impact de la surveillance, du confinement, de la résistance publique et de bien d'autres choses qui seront abordées dans cette série. Ce panel se concentre sur les expériences des femmes noires et des personnes non binaires à l'intersection des tendances émergentes et de l'intelligence artificielle, en abordant spécifiquement les questions des algorithmes de reconnaissance faciale, de la santé ciblée individuellement et de l'IA basée sur le risque, de la diminution de la vie privée et du retour de bâton technologique potentiel chez les femmes et les personnes non binaires.
Cette table ronde examine spécifiquement ces impacts sur la vie des femmes noires afro-indigènes et des personnes non binaires. Ce travail nous est présenté aujourd'hui par le biais de la subvention Connections du Conseil de recherches en sciences humaines du Canada. Il s'appuie sur un ensemble croissant de travaux qui interrogent les institutions de politique sociale et la violence d'État anti-noire. Il s'inspire également de certains de mes travaux antérieurs dans les domaines de la surveillance, de l'expérience des femmes noires, de la pauvreté et de la violence d'État, de la démence, de la médicalisation et, plus généralement, de la vie et de l'habitabilité des Noirs. Ces discussions offrent une plateforme de réflexion critique et de dialogue entre les étudiants, les universitaires, les militants et les artistes qui apportent des perspectives et des expériences diverses sur le sujet. Quelques notes sur l'accès - ce soir, nous n'avons pas d'interprétation pour les sourds. L'interprétation sourde, en fait un de nos interprètes a dû annuler à la dernière minute. L'équipe d'interprétation a donc pris la décision de ne pas poursuivre ce soir, et nous nous en excusons.
Cependant, nous avons accès au sous-titrage en direct et si vous avez besoin d'un sous-titrage en direct, veuillez cliquer sur le bouton CC en bas de l'écran. Il existe plusieurs façons de participer à la table ronde de ce soir. La boîte de discussion ne sera pas accessible aux participants pour la série. Toutefois, nous encourageons les participants à poser des questions et à y répondre en utilisant la fonction Question et réponse de Zoom. L'utilisation de cette fonction, pour utiliser cette fonction, désolé, veuillez appuyer sur... Veuillez appuyer sur le bouton Q&R, tapez votre question dans la case Q&R et cliquez sur envoyer. Vous pouvez également nous envoyer vos questions de manière anonyme en cliquant sur la case ci-dessous dans la zone de saisie. Nous pouvons répondre à ces questions en direct ou en texte avec la fenêtre. Si, dans la partie questions-réponses du panel, vous souhaitez poser une question en utilisant le son, veuillez appuyer sur le bouton "lever la main" et nous activerons votre microphone au moment opportun. Si vous avez besoin de votre vidéo, n'hésitez pas à nous l'indiquer dans la fenêtre de questions-réponses et nous l'activerons au moment opportun.
En outre, si vous souhaitez utiliser les médias sociaux pour participer au panel d'aujourd'hui, n'hésitez pas à nous taguer à @BlackOculars sur Twitter et Instagram. Nous avons la chance d'avoir Apollo avec nous ce soir et Amber, qui tweetera en direct le panel depuis @BlackOculars sur le compte Twitter. Pour présenter le modérateur de ce soir. Nous sommes heureux et très reconnaissants d'avoir Jackie avec nous. Jackie est une étudiante en deuxième année de doctorat en médecine expérimentale à l'Université McGill. Elle étudie l'utilisation de l'IA pour prédire la présence et les réponses au traitement de la thèse de la masse cérébrale chez les patients atteints de cancer. Elle a occupé plusieurs postes de recherche, notamment dans le domaine de la recherche, des soins infirmiers et de la gestion de projet dans les secteurs sans but lucratif et pharmaceutique, et s'intéresse à l'application de l'IA au sein de sa communauté. Jackie... Jackie a également un fils de trois ans. Accueillons donc Jackie, qui sera notre modératrice ce soir. Merci, Jackie.
JACKIE GIRGIS : Merci beaucoup. Ce que je vais faire maintenant, c'est présenter les trois intervenants qui vont parler aujourd'hui. Je vais également vous donner un aperçu des questions qui sont destinées à alimenter les présentations des discussions que nous allons avoir à l'avenir. Si vous avez des questions comme Idil l'a mentionné, mettez-les dans les questions-réponses et nous pourrons les passer en revue en fonction de ce que les orateurs ressentent au début, au milieu ou à la fin de leurs exposés. Tout d'abord, je vais vous présenter le Dr Opara. Le Dr Opara est un médecin interniste et pédiatre de soins primaires de renommée internationale à la Wayne Health, professeur adjoint à la faculté de médecine de la Wayne State University et directrice associé du programme de la faculté de médecine de la Wayne State University, résidence de médecine interne à Détroit, Michigan. Née au Nigeria et basée à Détroit, elle est également experte en santé publique mondiale, conférencière et consultante internationale, universitaire et militante. Elle fournit aux dirigeants, aux communautés, aux organisations et aux institutions des outils de résolution de problèmes fondés sur les systèmes qui leur permettent d'accomplir leur mission et de réaliser leurs objectifs tout en créant des environnements de formation et de travail équitables, justes, antiracistes et décolonisés.
Elle est un éducateur médical et communautaire primé, un mentor et un leader dans les sphères académiques et non académiques et siège dans de nombreux conseils et comités nationaux et internationaux traitant de l'antiracisme, de la décolonisation, de la santé, de l'équité et de la justice sanitaire. Praticienne de la médecine de libération, elle centre les solutions africaines noires et indigènes dans son travail de justice et d'équité basé sur les actifs, en tant que chercheuse, organisatrice et clinicienne transraciale, communautaire et participative, financée par le National Institutes of Health. Elle a créé et dirigé diverses initiatives de justice en matière de santé et a transformé la culture des programmes d'éducation médicale et de formation des enseignants de son institution grâce aux initiatives qu'elle dirige et codirige respectivement, notamment les programmes de santé, d'équité et de justice en médecine et d'équité en matière de santé urbaine mondiale. Elle est reconnue pour ses talents de communicatrice, de modératrice et d'animatrice, en particulier lorsqu'elle s'engage dans des conversations difficiles sur la justice raciale et la transformation des systèmes, comme en témoignent ses rôles de coprésidente de la Coalition canado-américaine pour mettre fin à la correction raciale dans les soins de santé, de co rédactrice de Racism and Health du PLOS- One Global Public Health Journal, de créatrice de la Anti-Racism in Medicine Action Roundtable, d'animatrice de la Table ronde du gouverneur du Michigan sur la justice reproductive et de membre de la White House Office of Public Engagement Health Equity Leaders Roundtable.
En reconnaissance de son dévouement à la justice en matière de santé, le Dr Opara a récemment été récompensée par le conseil d'administration de la WSU pour son travail inlassable durant la pandémie de COVID-19 pour sensibiliser au racisme médical et scientifique, créer de nouveaux systèmes de formation pour les professionnels de la santé, plaider pour des changements de pratiques et de politiques, ainsi que pour la responsabilité institutionnelle, créer des réseaux de défense des professionnels noirs et centrer les voix et les histoires des patients noirs. Je suis très impatiente d'entendre ce que vous allez nous dire aujourd'hui. Je vais présenter l'oratrice suivante, le Dr LLana James. LLana James est une intellectuelle publique et une scientifique. Sa carrière s'étend du secteur privé au service public. Elle étudie comment l'IA perturbe la pratique des soins de santé et de la médecine, alors qu'elle redéfinit de plus en plus l'humain, les sciences de la réadaptation, la santé publique et les systèmes de soins de santé. LLana développe, met en œuvre et évalue des interventions à l'intersection de la race, de l'ethnicité, de la médecine, de la santé publique, des systèmes de santé, des données, de l'IA et du droit.
Elle est titulaire d'une bourse postdoctorale en médecine de l'IA et en justice des données à l'université Queen's. Enfin, je vais vous présenter le Dr Idil Abdillahi, qui est la personne que nous avons vue pour la première fois à l'écran. Le Dr Abdillahi a publié de nombreux articles sur un large éventail de sujets, notamment la santé mentale, la pauvreté, le VIH, le sida, le développement organisationnel et plusieurs autres domaines politiques clés à l'intersection de la vie des Noirs et de l'interruption de l'État. Plus particulièrement, ses recherches de pointe sur la bourse des citoyens noirs et anti-noirs ont alimenté les débats actuels sur les fusillades policières mortelles de personnes identifiées comme membres de Black Matter. Son travail est attentif aux tensions entre les données, la recherche, les communautés, les institutions et la monétisation. Elle s'efforce de remettre en question la manière dont les données de recherche sur les communautés subissant une oppression structurelle, en particulier les communautés noires, sont de plus en plus utilisées par les institutions axées sur le capital, tout en servant simultanément les espaces de soins sociopolitiques tels que les organisations à but non lucratif, les prisons, les hôpitaux et les centres de santé communautaires.
Le travail du Dr Abdillahi permet de comprendre comment ces institutions et ces espaces de soins continuent d'avoir un impact disproportionné sur les femmes et les personnes noires, ce qui les prive de services publics et de soutien à Toronto et ailleurs. Son dernier livre, intitulé " Black Women Under State Surveillance, Poverty and the Violence of Social Assistance, publié par SRP Books, est actuellement en vente dans les librairies locales. Et enfin, je vais juste préparer un peu le terrain pour la discussion à venir, en parlant de trois questions qui étaient destinées à amorcer cette conversation. La première était : pouvez-vous nous donner un aperçu historique de l'utilisation des technologies et des algorithmes liés à la santé ? Cela peut inclure à la fois les diagnostics et les traitements à l'intersection de la négritude et de la féminité/transcendance. Quelles sont les principales controverses que vous pouvez décrire et les considérations anti-Noirs qui doivent être prises en compte dans le domaine croissant de la médecine raciale et, plus largement, de l'intelligence artificielle ?
Et enfin, quelles réponses les féministes noires peuvent-elles partager avec les personnes travaillant à l'intersection des données, de la technologie et de la prestation de services de santé virtuels fondés sur la race à l'heure actuelle ? Je vous cède donc la parole, Dr Opara, pour notre premier exposé.
DR IJEOMA OPARA : Merci beaucoup, Jackie. C'était une introduction si gentille et généreuse, et je suis vraiment honorée d'être ici. Merci à tous ceux qui sont présents ici. Je suis très heureuse de partager cet espace avec mes merveilleuses et puissantes sœurs, le Dr Idil et LLana, qui est ma meilleure moitié, j'aimerais dire. Sur ce, je m'appelle Dr Ijeoma Nnodim Opara, avec les pronoms "elle" et "O". Je suis la première fille de Mme Ngozi Nnodim et du Dr Ahamefura Nnodim. Et je suis vraiment fière d'être en votre présence aujourd'hui. Je tiens à souligner que la terre sur laquelle je me trouve est le territoire d'origine des Anishinabés, aussi connus sous le nom de peuple des Trois Feux, les Ojibwés, les Odawas et les Botawatomis. Et il y a un engagement à continuer à améliorer, à être un meilleur intendant de cette terre, tout en reconnaissant l'histoire du génocide et du déplacement forcé de Détroit ou de Waawiyatanong. Je reconnais également mes ancêtres et ma communauté d'origine et d'adoption. Les ancêtres Igbo, africains et de la diaspora qui ont vécu, résisté, prospéré et se sont sacrifiés pour que je puisse être devant vous, debout ou assise en ce moment, une femme noire africaine libre.
Je veux nommer que je suis une déesse à la peau brune, chérie, et je porte des lunettes, j'ai une coupe courte et bouclée, du rouge à lèvres violet, une chemise noire avec des bijoux en or, mes oreilles et mon cou, et j'ai ma veste à imprimé africain. Si vous ne retenez rien de la conversation d'aujourd'hui, j'espère que vous avez retenu et internalisé cinq clés. La première est que la race est une construction sociopolitique et culturelle et non une catégorie biologique. Deuxièmement, la race n'est pas la même chose que l'ascendance génétique. Troisièmement, que le racisme est le vecteur de la maladie, et non la "race". Quatrièmement, et cela pourrait être en fait le cinquième, vous savez, parce que je n'ai pas fait, je n'ai pas été à l'école pour les mathématiques, donc je ne peux pas compter. Mais cette correction de la race est une pratique raciste et équivaut à une faute professionnelle. OK. Et ce sont les cinq clés que je veux que nous gardions à l'esprit alors que je m'engage dans cette conversation et, espérons-le, que cette conversation reflète certaines réponses aux questions qui ont été posées. Donc, tout d'abord, comme le niveau a dit, "Qu'est-ce que la correction de race ?" Et donc c'est, vous savez, à partir du travail que LLana et moi et une merveilleuse équipe de frères et sœurs étonnants font, la Coalition canado-américaine pour mettre fin à la correction raciale dans les soins de santé.
Il s'agit d'une pratique qui se produit lorsque les prestataires de soins de santé utilisent la "race" ou la catégorie raciale d'un patient pour calculer les résultats de laboratoire ou utilisent des tableaux ou des calculateurs agnostiques "fondés sur la race" ou des fourchettes de valeurs limites pour décider si une personne noire doit ou non recevoir des soins ou si les symptômes d'une personne noire nécessitent un traitement. Et la question est de savoir pourquoi cette pratique fait toujours partie des calibrages médicaux depuis l'esclavage, ou depuis l'esclavage transatlantique. Et sans tenir compte des changements sismiques et des mises à jour des connaissances, des technologies et de l'éthique médicales, je veux dire, nous avons eu cet étonnant travail historique des États-Unis, qui est le projet du génome humain qui montre que nous sommes essentiellement identiques à 99,9%, vous savez, en tant qu'humains, qui montre qu'il y a une plus grande variation génétique au sein de chaque catégorie raciale spécifique qu'entre les catégories dites racialisées, d'accord. Et pourtant, et toujours en médecine et dans les soins de santé, nous traitons toujours la "race" comme une catégorie biologique. Nous corrigeons encore les processus biologiques ou physiologiques dans le corps des personnes noires pour qu'ils répondent à une certaine norme, qui est de celle qui se produit dans les corps blancs.
C'est vrai. Et ça, c'est génial. Un merveilleux livre du Dr Joseph Grave, "Racisme, pas la race - Réponses aux questions les plus fréquentes". Il s'agit d'un frère puissant qui a été le premier Afro-Américain à être formé et à obtenir son doctorat en biologie évolutionniste et qui a vraiment commencé à briser une grande partie des croyances intériorisées que beaucoup de gens ont sur la famille humaine, d'où l'invention de la race biologique humaine et qui a été utilisée comme une, comme une exposition, comme une raison pour expliquer les disparités de santé entre les groupes racialisés afin de masquer la véritable cause, qui est la suprématie blanche et le racisme structurel. Et nous en parlerons dans une seconde. Le travail du remarquable Dr Dorothy Roberts dans son livre "Fatal Invention". OK, vous devez savoir quelque chose. Je suis une mère qui travaille et c'est l'un d'entre eux. Alors s'il vous plaît, donnez-moi une seconde. "J'ai besoin que tu me donnes un..."
CHIMAMANDA : "Maman !"
DR IJEOMA OPARA : Oui.
CHIMAMANDA : Eh bien, mon
DR IJEOMA OPARA : Chimamanda, stp.
CHIMAMANDA : Mes livres étaient... Ce que je, ce que je, ce que je veux dire...
DR IJEOMA OPARA : Chimamanda, stp.
CHIMAMANDA : Non, maman. Mes livres que j'ai faits à l'école hier, (INCONNU) pour l'émietter.
DR IJEOMA OPARA : Je suis désolé. OK, ne leur dis pas ça et je suis vraiment désolé. OK, va le dire à papa, et ferme la porte. Merci. Pas de problème. Merci beaucoup. Ça s'appelle l'intégration travail-vie privée, l'équilibre n'existe pas. Juste pour que tu saches, on intègre et on suit le courant. C'est ce qu'on fait. D'accord, parce que je suis une maman médecin, et c'est comme ça que ça va toujours être. Donc le travail du Dr Robert Dorothy Roberts, qui est une femme fantastique, et vous voulez lire ce livre, il s'appelle 'Fatal Invention, How Science, Politics and Big Business Recreate Race in the 21st Century' est un travail remarquable. C'est un ouvrage exceptionnel. Et voici une citation qui met vraiment, vraiment en évidence une grande partie de la pensée lorsque nous parlons de correction raciale et nous parlerons de la façon dont elle s'intègre dans les algorithmes dans une seconde. Mais l'illusion selon laquelle la race est un héritage biologique plutôt qu'une relation politique, permet à de nombreuses personnes prétendument intelligentes de faire les déclarations les plus ridicules sur les Noirs et les traits biologiques.
Mais d'où vient cette illusion sur les données ? Eh bien, vous devez remercier un certain nombre de personnes pour cela, mais il y a quatre de ces personnes qui sont le Dr Samuel Cartwright, le Dr Charles Morton, le Dr Charles Darwin et Carl Linnaeus. Et ce sont quatre, comme vous pouvez le voir, mauvais garçons du 18ème siècle, chéri, qui ont vraiment été essentiels pour déterminer qu'aucune différence raciale n'était biologique et enracinée dans le corps et dans les gènes et dans les tissus et les organes et donc est, ce qui est... Par conséquent, une véritable raison pour les différences dans les résultats de santé. Il est important que nous comprenions ce concept de racisme scientifique, qui est le système qui sous-tend la médecine fondée sur la race et ensuite la race, la soi-disant correction de la race par laquelle la recherche caractérisant la race comme une variable biologique essentielle se traduit dans la pratique clinique et conduit ensuite à des soins inéquitables. Et quelle est la fonction de tout cela ? Oui, la fonction a finalement établi une hiérarchie raciale. Donc vous avez, vous savez, Charles Darwin, "L'origine des espèces".
Le sous-titre indique qu'il existe une hiérarchie raciale et que les systèmes de croyance, les théories pseudo-scientifiques qui ont été proposées visaient essentiellement à expliquer pourquoi les personnes de race blanche étaient supérieures à toutes les autres personnes, le "nègre" se trouvant tout en bas de l'échelle. Et donc c'est la surface de la question, en fin de compte. Et donc, ce que nous devons maintenant intérioriser, c'est que la médecine et les soins de santé ne sont pas isolément à l'abri des inégalités raciales et qu'ils ne font que gérer les conséquences néfastes de toutes ces inégalités et injustices sociétales, mais qu'ils sont plutôt le produit de la suprématie blanche et du racisme structurel. Voici donc mon article intitulé "Modern Day Drop Drapetomania, Calling Out Scientific Racism", écrit avec ma formidable sœur érudite, qui a vraiment commencé à expliquer cela et à le relier à la réponse à la pandémie de COVID-19. Et donc, essentiellement, il est important de commencer à comprendre que la race a été inventée en fin de compte pour mettre en œuvre le racisme.
Et donc il y a un dicton que nous avons habituellement en termes de... En termes de, désolé, je dois manipuler certaines choses sur mon écran. Dans le travail sur la justice en matière de santé, le racisme a inventé la race, non ? Et que la race a été inventée pour mettre en œuvre le racisme et maintenir l'esclavage, soutenir le suprémacisme blanc et le racisme, et essentiellement amasser le pouvoir économique et politique parmi les personnes de race blanche. Il ne s'agit pas d'un groupement naturel qui est en quelque sorte mal utilisé par les profanes fanatiques, mais bénéfique pour les médecins impartiaux, n'est-ce pas ? Non. C'est... Il y a une intention qui est inscrite dans la façon dont c'est incorporé dans la médecine clinique et les algorithmes qui sont ensuite reproduits dans la technologie. Et ce sont des livres étonnants. Et encore une fois, je suis sûr que ce groupe a lu tout cela, mais au cas où vous ne l'auriez pas fait, vous devriez prendre un de ces livres que vous voyez ici, le "Projet 1619", "Medical Apartheid", etc. Et donc ce dont nous parlons, c'est que cette conversation se situe dans le contexte du capitalisme racial, n'est-ce pas ?
Terres volées, corps volés, travail volé, n'est-ce pas ? Et donc, afin de justifier ce système, il est important de mettre en avant et de formaliser un système de croyance et une façon de connaître cette épistémologie qui divise naturellement les humains en races biologiques, soi-disant biologiquement distinctes, vous savez, issues de ce 18ème siècle, de l'illumination scientifique. Mais en réalité, la fonction et le but, et c'est un autre point pour nos étudiants, etc., et les gens qui font ce travail, c'est de toujours demander, eh bien, quelle est la fonction de cette politique, de ce programme d'études, de ce programme, de cette initiative, de cette idée, de cette pensée, de cette discussion ? Oui, quelle est la fonction ? La fonction est de justifier la conquête, la dépossession et l'asservissement d'autres peuples par les Européens et plus tard par les Américains blancs. Et les médecins, les médecins américains, ont joué un rôle unique au 19ème siècle en promouvant ce concept racial de la maladie pour légitimer la traite transatlantique des esclaves et l'esclavage des esclaves américains, encore une fois sur la base de distinctions innées plutôt que sur un suprémacisme blanc.
J'étais littéralement dans une réunion de recherche aujourd'hui où quelqu'un, a parlé de son étude, encore une fois, en confondant la race et l'ascendance et l'ethnicité pour expliquer une différence biologique en ce qui concerne la vitamine D selon l'ascendance. Ce phénomène est tellement ancré dans la pratique clinique et la recherche médicale, et donc dans les processus politiques et les systèmes éducatifs, n'est-ce pas ? Et la pièce à ce sujet et finalement ce qui est au service de la déshumanisation, n'est-ce pas ? C'est déshumaniser pour dire que les personnes dans le corps des Noirs ne sont pas humaines et donc, naturellement aptes à être exploitées et détruites. Que ce soit la corde de lynchage ou le fouet. Oui, dont le Dr Samuel Cartwright disait qu'il était le remède à la folie. Le Dr Idil travaille sur la folie, non ? La folie des Africains asservis de s'enfuir est devenue une maladie qui a été pathologisée, où les corps noirs et les réponses humaines naturelles des Noirs sont en quelque sorte pathologisés. Et donc, son traitement, littéralement dans son livre, est de les fouetter. Et cela justifie donc la violence à l'encontre des corps noirs, même dans les établissements de soins de santé et dans les universités, mais aussi dans la rue, à l'épicerie, à la bibliothèque, dans le genre "mêlez-vous de vos affaires au bord de la piscine", etc.
La violence est justifiée parce qu'il y a une pathologie inhérente au corps noir. Et ce raisonnement a été répliqué encore et encore. Ici, c'est une photo de l'expérience Tuskegee. Elle justifie la possibilité de faire des tests sur les corps noirs et d'exploiter et d'extraire des connaissances qui profitent aux personnes de race blanche tout en refusant le droit au traitement aux individus de race noire parce que vous n'êtes même pas humains. Cela justifie les politiques qui ciblent les corps noirs. Donc la guerre contre la drogue, la guerre contre le crime, n'est-ce pas ? Les politiques racistes, l'eugénisme et le nazisme, la stérilisation forcée, n'est-ce pas ? Cela justifie les politiques de ségrégation, Jim Crow, le redlining à tous les niveaux : logement, santé, Internet, environnement, injustice reproductive. Vous voyez ce qui s'est passé de ce côté-ci de l'étang, aux États-Unis, avec la suppression de Roe v. Wade. Exact. Suppression d'électeurs, génocide, ça justifie ces politiques racistes. Et donc en médecine, et c'est, encore une fois, le phénoménal Dr Dorothy Roberts, et vous voulez vérifier, il y a une conférence TED qu'elle a donné, "Le problème avec le racisme en médecine".
Eh bien, ça servait à créer des diagnostics différentiels, une évaluation, une gestion et un traitement. C'est inculqué dans notre technologie et dans les ressources allouées. Elle se nourrit d'hypothèses et elle est même intégrée dans les machines, les appareils et les algorithmes que nous utilisons dans toutes les disciplines des soins de santé et au-delà , dans toutes les spécialités. Voici donc un article qui parle d'expériences que nous testons, les tests de fonction pulmonaire, et cette machine est corrigée en fonction de la race. Si vous entrez et que vous avez besoin d'un test de fonction pulmonaire afin de déterminer ce qui se passe avec vos poumons, si vous êtes considéré comme une personne noire, une correction est ajoutée car elle est basée sur la croyance de Samuel Cartwright. Et ceci est documenté, bien documenté dans le livre de Lundy Braun. Et je pense que Lundy Braun prendra la parole demain sur ce même sujet. Je crois à l'Université Queen's. Je ne sais pas, quelque part. Je serai heureuse de partager le lien plus tard. Cependant, si vous entrez dans le service, on vous corrige en se basant sur la croyance de personnes comme certains médecins, Samuel Cartwright, qui ont dit que "les Noirs ont une capacité pulmonaire inférieure pour une raison magique". L'oxymétrie de pouls jusqu'à récemment, non ?
Au cours des dernières décennies, nous savions que l'oxymètre de pouls, un appareil qui vérifie la quantité d'oxygène dans le corps, affichait des chiffres plus élevés chez les personnes à la peau foncée, alors que l'oxygène dans le corps est en réalité faible. Ainsi, dans cette étude, on a constaté que les patients noirs présentaient trois fois plus souvent une hypoxémie occulte non détectée par l'oxymètre de pouls. L'hypoxémie occulte signifie simplement que votre taux d'oxygène est faible, mais que la machine dit qu'il est élevé, et cela se produit trois fois plus souvent chez les personnes à la peau foncée, que j'identifie également comme noires, que chez les personnes à la peau claire. Maintenant, pensez au COVID et à la façon dont cela a contribué aux disparités de mortalité et de morbidité du COVID-19. Les appareils à rayons X, les Noirs ont longtemps reçu des doses de radiation plus élevées parce qu'on croyait que le squelette des Noirs était plus lourd et que les os étaient plus épais. Et ça a duré très longtemps. On croyait que les Noirs avaient des os plus denses, plus de muscles, une peau plus épaisse, et donc les radiologues et les techniciens utilisaient des doses de radiation plus élevées.
Pensez aux risques à long terme en termes de cancer et autres maladies dues aux radiations. Les coûts psychologiques, à cause, encore une fois, du renforcement de la déshumanisation. Et donc il y a des conséquences incroyables. Le coût et le tribut payé par les Noirs sont incroyables : souffrances évitables, augmentation des coûts des soins de santé, journées de travail et revenus perdus, disparités en matière de santé, de richesse, d'injustice, de morbidité, de mortalité, de décès. Nous avons vu ce qui s'est passé lors de la pandémie, qui se poursuit. Ne vous y trompez pas, elle est toujours en cours. Dans l'État du Michigan, où je réside, environ 14 % de notre population est d'origine africaine, et nous avons enregistré 40 % des décès. Je veux dire, c'était ridicule. Et cela s'est reproduit dans tout le pays. Diagnostics tardifs, diagnostics erronés, interventions tardives, refus d'admission, manque de surveillance étroite, mauvaise allocation des ressources, traitements inappropriés, mauvaise classification de la gravité de la maladie, accès aux procédures de sauvetage. Tous étaient...
IJEOMA OPARA : Où cela s'est produit et a contribué aux disparités. Et il est important que nous comprenions que ces niveaux d'injustices qui sont intersectionnels se renforcent mutuellement, se renforcent, et sont aggravés par la technologie avec des coûts de soins de santé incroyables. Je ne vais pas m'attarder sur ce point. Je veux conclure mes commentaires. Nous voyons cela se manifester dans les taux de mortalité maternelle, où une femme noire enceinte est jusqu'à quatre fois plus exposée. Et en Louisiane, je tiens à dire que les chiffres sont à deux chiffres. Les pourcentages de probabilité de décès sont à deux chiffres par rapport à leurs homologues blanches. Le statut socio-économique n'a pas d'importance. En fait, une femme noire riche et très instruite court à peu près le même risque qu'une femme blanche pauvre ayant abandonné ses études dans ce pays, en termes de résultats. OK. Et la belle façon de vraiment résumer le pourquoi est la députée Corey Bush dans son commentaire dans ce document, chaque jour des femmes noires meurent parce que le système nie notre humanité. Et cet article qui, encore une fois, parle du fait que le moteur de ces résultats est le racisme.
Ce n'est pas la race en soi. Il faut parler de la façon dont les personnes racialisées comme noires sont valorisées. Et comment cela se manifeste dans nos résultats de santé. Et ce qui est intéressant, je veux le souligner, c'est que ça se voit dans la mortalité infantile. N'oubliez pas que les États-Unis sont en tête des autres pays à revenu élevé pour ce qui est des résultats médiocres concernant les femmes et les bébés. Ainsi, les bébés noirs meurent ou sont tués trois fois plus souvent que les nouveau-nés blancs au cours du premier séjour à l'hôpital. Mais ce qui est intéressant, c'est que lorsqu'ils sont pris en charge par des médecins noirs, leur taux de mortalité est réduit de moitié. Quoi ? Alors, c'est le corps ? Est-ce que c'est que les bébés noirs sont intrinsèquement, d'une certaine manière, déficitaires ? Non. Il y a quelque chose qui se passe dans l'environnement. Et l'implication pour l'IA est que ces préjugés, lorsque vous pensez au contexte historique, sont la façon dont ils se manifestent dans la pratique, dans la recherche, dans la politique et dans l'éducation qui est décrite. C'est vrai ? Sont ensuite utilisés pour former l'intelligence artificielle, non ?
Les préjugés ne font que se perpétuer à une plus grande échelle avec un impact plus large. Et Ruha Benjamin est juste une déesse sur cet espace. Vous voulez et nous voulons avoir ces livres si vous ne les avez pas. Et il y a des articles qui ont montré que des millions de Noirs sont affectés par les préjugés raciaux dans les algorithmes de soins de santé. Une étude a montré qu'un algorithme déterminait le groupe de patients qui recevaient des soins secondaires pour des cas complexes. Donc vous êtes venu, vous avez été admis, vous avez été pris en charge à l'hôpital, vous avez été renvoyé chez vous. Les gens qui sont vraiment malades ont besoin d'un suivi pour s'assurer qu'ils restent en bonne santé en dehors de l'hôpital. Eh bien, il s'avère que les personnes noires avaient moins de chances d'être orientées vers ces soins. Exact. Pour qu'on s'occupe d'eux. En fait, pour qu'ils obtiennent ces soins, ils doivent montrer qu'ils sont beaucoup plus malades que les blancs, parce que la façon dont l'algorithme a été formé a commencé à discriminer les noirs. Et il y a plus de détails que je suis heureuse de partager plus tard. Mais c'est le point.
Et puis même dans le dossier médical électronique, nous avons des descripteurs négatifs par rapport aux patients blancs. Les patients noirs de cette étude avaient presque trois fois plus de chances d'avoir au moins un descripteur négatif dans l'historique de l'examen médical. Et cela est ensuite utilisé pour former d'autres technologies qui sont seulement répliquées. Exact. Et c'est une conversation qui peut être dite. Comme l'a dit Audre Lorde, l'outil du maître peut-il être utilisé pour déconstruire ou détruire la maison du maître ? Et il y a des réflexions sur, eh bien, vous savez, dans cette étude, les algorithmes reconnaissent en fait la douleur des patients noirs plus que lorsque les radiologues eux-mêmes sont habitués à évaluer la douleur. Et donc l'algorithme a fait mieux que le radiologue. Et donc, y a-t-il un moyen, et c'est juste une question et vous savez, que nous pourrions potentiellement former pour atténuer les préjugés ou pour déconstruire les structures et les systèmes et les cultures de suprématie blanche qui peuvent apparaître dans la technologie. Et c'est la question, parce que beaucoup disent oui, beaucoup disent non et certains disent oui.
Et la réponse des féministes noires, que j'ai tirée de Digital Black Feminism de Catherine Knight Steele, pourrait être que, peut-être, nous pouvons utiliser les outils du maître, mais nous allons devoir poser des questions différentes. Nous allons devoir proposer un cadrage différent. Nous allons devoir proposer un processus de pratique différent et les produits parlent des possibilités que les contraintes, et puis redéfinir ce qu'est la technologie et accepter que nous avons toujours eu une relation avec la technologie. Je veux donc terminer ici. J'ai beaucoup parlé et j'apprécie votre patience à mon égard, mais quelles sont les implications de la recommandation d'aller de l'avant ? Que faisons-nous à la suite de tout cela ? La première étape est de cesser, de se désister et de se défaire de la correction raciale, de la médecine basée sur la race et du racisme scientifique, point final. OK. Avec un T majuscule, OK. Continuer sciemment la correction raciale dans les soins de santé, la perpétuer dans la technologie et dans les nombreuses formes de société, c'est commettre une faute médicale tout en perpétuant le suprémacisme blanc et en produisant des disparités raciales et intersectionnelles.
Parce qu'encore une fois, avec l'IA, la correction raciale serait intégrée dans le tissu des soins, ce qui est essentiellement une pratique médicale à grande échelle. Et l'argument selon lequel il s'agit d'une violation flagrante des droits de l'homme, tout simplement, c'est extrêmement raciste. OK. Et donc la première étape est de reconnaître l'histoire du racisme médical, du colonialisme et de la violence en Amérique du Nord et là où vous êtes. Un autre article dans The Lancet par l'incroyable Dr Robert. Vous savez déjà que j'aime cette femme. L'art de la médecine. L'antiracisme en médecine exige donc plus que l'élimination des préjugés dans l'esprit de chaque médecin. Toutes ces formations sur les préjugés, je veux dire, elles sont mignonnes, mais en réalité, nous devons nous pencher sur et dans la manière dont la médecine est structurée pour promouvoir les idées, les politiques et les pratiques racistes. Et cela commence à se produire. Nous avons l'Académie américaine de pédiatrie qui a parlé de l'impact du racisme sur la santé des enfants et des adultes et qui a supprimé les corrections raciales dans certaines de ses publications, et je veux dire presque toutes, mais la plus importante, celle qui a obtenu le plus de marché, la plus grande publicité, concernait les infections urinaires.
Comment calculer les infections urinaires des enfants. L'American Journal of Obtestricts and Gynecology a supprimé la correction raciale dans son calculateur pour l'accouchement vaginal après une césarienne. Un calculateur permettant de déterminer le risque de résultats négatifs en cas d'accouchement par voie vaginale après une césarienne comportait une catégorie raciale et plaçait les femmes noires dans une situation de risque plus élevé, du simple fait qu'elles étaient noires. OK. Et rien d'autre. Et cela a été supprimé. Dans la recherche. Il y a des directives qui ont été émises sur la façon dont la race, l'ethnicité, les disparités et les facteurs contextuels doivent être explicitement pris en compte dans les études, la conception et l'interprétation, diverses normes et directives de pratique de diverses organisations. Et vous pouvez voir certaines d'entre elles représentées ici, a commencé à se manifester dans les façons dont la race et le racisme doivent être discutés dans cet espace. Excusez-moi, le plaidoyer est essentiel dans ce travail, l'éducation médicale. Et voici mon programme, HEJIM, qui est le curriculum que j'ai fondé.
Et j'enseigne à Wayne State University. Transformationnel. Comment former les médecins, les infirmières et les personnes travaillant dans le secteur de la santé pour qu'ils commencent à opérer ce changement ? Les examens du conseil d'administration doivent changer l'évaluation, la promotion et la titularisation, l'autorisation d'exercer, etc. Enfin, le plaidoyer va être vraiment critique aux niveaux local, professionnel, national et mondial, en militant pour la responsabilité et la technologie, la transparence, l'organisation et la mise en valeur à travers, une action collective à travers divers secteurs. Intersectionnalité. Je suis membre de la Health Equity Leaders Roundtable de la Maison Blanche, comme vous le savez, et c'est une autre forme de plaidoyer. La FDA a convoqué un groupe d'experts le 1er novembre pour examiner ces oxymètres de pouls, et ce, en raison du bruit que beaucoup d'entre nous font à la base. Et nous devons plaider pour des réparations, point final. Il y a beaucoup de travail qui a été publié pour soutenir cela. Je voudrais donc conclure mes commentaires par . Merci. Merci à vous. L'autre chose que nous pouvons tous faire est de rejoindre la coalition et d'aller sur endracecorrection.com.
Voici le code QR mais endracecorrection.com est le site web. Participez à la table ronde d'action de la médecine antiraciste AIMART tous les samedis à 13 heures, heure normale de l'Est, sur Twitter et YouTube. C'est notre site web où vous pouvez voir nos travaux précédents et c'est sur ce site web juste ici. C'est le code QR pour cela. Et encore une fois, rappelez-vous les cinq clés dont nous avons parlé ? La race est une construction sociale et politique. Ce n'est pas la même chose que l'ascendance. Le racisme est le vecteur de la maladie et non la race. Et les disparités ne sont pas accidentelles, mais intentionnelles par conception et continuer à corriger la race est raciste et constitue essentiellement une mauvaise pratique. Voici mes coordonnées pour me joindre sur les médias sociaux @innodim. Vous pouvez m'envoyer un courriel ici et je vous remercie de le rapporter à Jackie pour continuer la facilitation.
JACKIE GIRGIS : C'était incroyable. Merci beaucoup, Dr. Opara. J'avais en fait une question lorsque vous parliez à la fin des réparations et de la manière dont ce racisme anti-noir est ancré dans le système médical, l'enseignement médical et toutes les écoles. Je sais qu'en 2008, l'American Medical Association a présenté des excuses officielles pour son rôle dans le racisme anti-Noir. Et dix ans plus tard, ils ont eu leur première femme médecin afro-américaine comme présidente. Et je me demandais si vous aviez remarqué que ce genre de sentiment ou ces changements se répercutent sur les écoles de médecine ? Parce que c'est aussi là que ces changements doivent être faits ? Parce que si les gens entrent en médecine et apprennent ces pratiques très racistes, les choses ne changeront pas. Même si l'Association Médicale Américaine s'excuse pour son rôle. Cela s'est passé pendant de très nombreuses années.
IJEOMA OPARA : Oui, je sais. C'est une excellente question. Et pardonnez-moi, j'essaie aussi de sortir d'ici, ou peut-être pouvez-vous me mettre dehors. Jackie. Il me faut toujours une minute pour sortir de cette section. Donc la question que vous avez posée est, comme l'AMA s'est excusée et d'ailleurs, pour tous ceux que vous connaissez, l'American Medical Association est l'Amérique, les États-Unis d'Amérique le plus grand groupe de médecins, et a joué un rôle énorme dans l'application du suprémacisme blanc. Elle excluait les médecins noirs et ne voulait pas et refusait que les médecins noirs la rejoignent, au point que les médecins noirs des États-Unis d'Amérique ont formé la National Medical Association (NMA). C'était une réponse à l'exclusion systémique et systématique des médecins noirs de l'American Medical Association. L'American Medical Association s'est opposée à Medicaid. L'Association Médicale Américaine s'est opposée et a soutenu la ségrégation Jim Crow. Je veux dire, c'était juste le bras du KKK, franchement. Et donc l'American Medical Association a participé et a perpétué un mal incroyable contre les noirs dans ce pays.
Donc, oui, comme Jackie l'a dit, en 2008, ils se sont excusés. Ils se sont réunis avec l'Association Médicale Nationale et le Groupe de Médecins Latinos également. Et ont fait quelque chose. Le fait est que lorsque nous parlons de réparations, nous parlons de ce qui n'est pas une réparation, ce sont des excuses, mais ce n'est pas une réparation. C'est vrai. Et il y a en fait des Nations Unies. Et plus tard, je le mettrai dans le chat. Oh, le chat est désactivé, mais je pourrais en parler plus tard. Mais peut-être que mes phénoménales et brillantes sœurs, le savent et peuvent en parler, qu'il y a plusieurs composantes de ce que sont les réparations que les Nations Unies ont mises en place. Et donc c'était des excuses, mais ce n'est pas de la justice réparatrice. Et donc, pour répondre à votre question, il faut une approche à plusieurs volets pour les réparations et la réparation dans les soins de santé, et certainement dans la société en général. De la part du gouvernement américain. J'ai parlé d'un projet de loi au Congrès qui a été bloqué et qui a été parrainé par des gens comme le représentant Cory Booker, etc. pour étudier les réparations, juste pour les étudier et faire des recommandations.
Et cela a été bloqué pour tout à fait ... depuis 2020. Exact. Il y a eu une prolifération après le meurtre de George Floyd comme une prolifération de tous ces actes. Vous avez la loi sur la brutalité policière de George Floyd. Nous avons eu la loi contre le racisme dans la santé publique. Nous avons la loi sur la Commission d'étude des réparations qui a été publiée. Mais elles ont toutes été bloquées parce que, le pouvoir ne veut pas s'ensemencer, sans y être forcé. Et donc il doit y avoir certainement des réparations à un certain niveau. Mais ces réparations doivent être spécifiques en ce qui concerne les soins de santé et la médecine. Et cela nécessitera une approche plus complexe, mais plus impliquée, qui inclura des éléments économiques parce qu'il y a un compte. Il y a littéralement, nous avons, des signes de dollars, des montants en dollars que cela a coûté de perpétuer systématiquement le mal contre les vies noires, n'est-ce pas ? A l'intérieur du système de santé par l'exclusion d'un traitement approprié, ou en perpétuant un traitement qui n'était pas nécessaire en raison de l'approche algorithmique intégrée qui est enracinée dans la suprématie blanche, l'anti-négritude et le racisme scientifique.
C'est donc un exemple du début d'une conversation, mais cette conversation n'est pas terminée. Mais pour répondre à votre question, absolument. Du point de vue de l'éducation, l'école de médecine doit être faite d'un point de vue professionnel, d'un point de vue réglementaire et d'un point de vue gouvernemental. Tous les éléments devront être mis sur la table et faire partie de cette conversation sur les réparations. Et c'est pourquoi j'ai partagé les ressources afin que les gens puissent également faire leur propre lecture sur ce sujet. Il y a pas mal d'articles et quelques très bons livres qui sont sortis sur le sujet.
JACKIE GIRGIS : Merci beaucoup.
IJEOMA OPARA : Excellente question. Merci.
JACKIE GIRGIS : Merci. Juste quelques rappels. Un pour le sous-titrage. Il faut juste essayer d'être attentif à aller un peu plus lentement pour que le sous-titrage puisse se faire. Et je voulais aussi vous féliciter pour avoir pris le temps de parler à votre enfant quand il s'est présenté. C'était très gentil. J'aime beaucoup ça. Je ne sais pas si LLana veut être la suivante ? Vous êtes en sourdine.
IJEOMA OPARA : Je tiens tout d'abord à m'excuser de parler vite. Vous savez, je suis Nigérienne. Nous avons cette mauvaise habitude. Et puis aussi, je pense aussi moi même. Laissez-moi juste jouer mon pays, c'est juste aussi moi. Donc je suis un travail en cours et je vais faire mieux. Il y a quelque chose que quelqu'un veut que je répète.Tu vois, je parle encore vite. Je suis aussi consciente que l'autre problème, c'est que j'ai beaucoup de choses à voir et j'essaie de les faire passer en 2 secondes. Donc c'est un équilibre et je suis un travail en cours. Donc,priez pour moi et continuez à m'aider. Mais j'apprécie votre patience.
IDIL ABDILLAHI : Ça marche. Rapidement, je rappelle aux gens que les discussions seront téléchargées et que nous aurons également la transcription du sous-titrage codé pour que les gens puissent y avoir accès. Et ce n'est certainement pas à la place de l'interprétation ASL et sourde d'aujourd'hui, cependant, c'est quelque chose que je pense important de partager. Donc, LLana, je vais vous inviter à reprendre la discussion.
LLANA JAMES : Oui. Salut, Jackie. J'ai hâte d'entrer dans la conversation qui va démarrer maintenant. Donc si vous voulez poser la première question, je peux m'y mettre et ensuite Idil. Et nous pouvons incorporer les commentaires au fur et à mesure, parce que le Dr Ijeoma Opara a fait un travail incroyable, nous a donné une base merveilleuse, et vous avez une compréhension très claire. Et je le répète, vous devez fondamentalement comprendre la différence entre ce qui se passe à cause de la suprématie blanche et ce qui est matériellement réel. Parce que souvent, ce que les Blancs voient comme des causes, c'est le fait de nous forcer à vivre dans un monde imaginaire qui ne se reflète pas dans les données empiriques réelles. Et puisque nous parlons de femmes noires, de personnes non binaires, des implications de l'évaluation des risques et de ce que cela signifie pour la reconnaissance faciale ainsi que pour l'imagerie médicale, le Dr Opara y a fait allusion lorsqu'elle a décrit les problèmes liés à la radiologie et à l'utilisation excessive de la radiologie pour obtenir des images des os des personnes noires. J'ai donc hâte de me plonger dans cette conversation.
JACKIE GIRGIS : Oui. Ma première question concerne les algorithmes d'IA et la manière dont ils sont généralement mis à la disposition du public ou utilisés, je suppose, comme outils de décision pour les cliniciens ou dans le domaine de la santé en général. Comme l'a mentionné le Dr Opara, un grand nombre de ces données sont recueillies dans le cadre du racisme anti-Noir. Nous voyons beaucoup de données qui ne sont tout simplement pas collectées. Il s'agit essentiellement de la façon dont les patients sont traités, de la façon dont les femmes noires sont traitées dans le système de soins de santé et de la façon dont on essaie d'utiliser ces données pour développer un algorithme d'IA. Mais si nous apprenons de cela, que pouvons-nous apprendre et comment pouvons-nous ajuster les données que nous avons en connaissant ce racisme anti-noir, en sachant que ces données ne sont pas réellement exactes et ne sont pas réellement bénéfiques pour les personnes auxquelles elles sont censées être bénéfiques ?
LLANA JAMES : Je pense qu'il est important pour nous tous de prendre le temps, surtout pour ceux d'entre nous qui travaillent du côté des sciences informatiques et du côté du flux des systèmes et des patients, d'expliquer et de partager un peu l'architecture. Je vais donc le faire dès maintenant dans ma réponse. Ce que j'entends par architecture, c'est que nous sommes souvent censés penser aux données comme à l'information. Ce sont en fait deux choses différentes. Et ce que cela signifie, c'est que l'information est, par exemple, la présentation de mon nom et le bas de l'écran où il est écrit LLana James. Et puis il y a mes pronoms, elle, elle et iel. C'est donc une information parce qu'elle est dans le contexte et qu'elle se trouve sous ma photo. Nous savons donc qu'en termes de coutume, cela signifie qu'il s'agit de mon nom. C'est une information. Les données, quant à elles, sont celles que nous traitons lorsque nous travaillons avec du code. Il peut s'agir d'une chaîne d'équations, de zéros, de uns et de symboles divers, et ce sont en fait des données. Ainsi, par exemple, si ce texte était écrit en code, il ne ressemblerait pas à Llana James elle, elle, et iel.
Oui. On dirait qu'il y a beaucoup de lettres supplémentaires et aucune d'entre elles ne ressemble à celles que je connais. Et donc ce sont des données. Les données sont des choses qui sont créées dans le but d'être traitées. Ce ne sont pas les mêmes choses que l'information. L'information est ce que nous avons l'habitude de manipuler et d'utiliser lorsque nous conversons. Un autre exemple : lorsque quelqu'un voit son adresse, il y a le numéro de la rue, le numéro de l'unité et le nom de la rue, et il existe une convention pour cela. Encore une fois, s'il s'agissait de données, tout ce que vous verriez serait un ensemble de chiffres et aucune convention particulière. Et vous vous demanderiez presque : cette personne ne comprend-elle pas la ponctuation ou les coutumes ? Et donc les données sont la clé. Voici la clé : sans contexte, elles sont sans contexte et brutes, ce qui signifie qu'elles peuvent être manipulées dans n'importe quelle fonction ou forme. L'information est accompagnée d'une convention, elle a au moins des paramètres que l'on peut utiliser et comprendre, et il n'est pas nécessaire d'avoir un ensemble particulier de connaissances informatiques.
Et si souvent, lorsque nous parlons de données, nous parlons en fait de données accessibles et utilisables sur le plan informatique. Nous ne parlons pas tous de la même chose. Ainsi, j'entends souvent les gens parler de données alors qu'ils ont besoin d'informations et parler d'informations comme s'il s'agissait de données. Et bien que cela puisse sembler sémantique, ce n'est pas le cas. Beaucoup d'entre nous, formés aux conventions de la langue que nous avons l'habitude de partager, peuvent communiquer et discuter sans un certain niveau de spécialisation. Les données, en revanche, nécessitent la spécialisation d'un langage, c'est-à -dire n'importe quel python, R n'importe quel type de langage informatique, et il y en a beaucoup, ainsi que la compréhension des conventions spécifiques à cette sous-discipline particulière des données. Et donc il y a une raison pour laquelle nous avons ce changement de langage. Il y a une raison pour laquelle, en tant qu'êtres humains, nous sommes encouragés à parler de données et non d'informations, parce que nous avons une longue histoire de l'information et de la façon dont elle doit être réglementée et partagée.
Et nous avons de nombreuses lois sur la façon dont cela fonctionne. C'est pourquoi au Canada, et je suis Canadienne de nationalité, nous avons quelque chose qui s'appelle la CRTC, vous savez, l'organisme canadien de réglementation des télécommunications, et cela concerne la gestion de l'information d'une manière que nous comprenons. Les données, d'autre part, sont une invention du secteur des affaires, parce qu'il y a dix ans, parlait-on de données à moins d'être dans le domaine des sciences ou de parler d'un ensemble de données ? Nous assistons donc à un changement de langage qui fait disparaître le contexte, les conventions qui nous permettent de comprendre et de savoir comment aborder les choses de manière correcte ou incorrecte et où nous devons obtenir le consentement. Et de plus en plus, notre langage se transforme en langage de monétisation transactionnelle. Et c'est pourquoi nous parlons de données, parce qu'elles sont les unités dans lesquelles nous effectuons des transactions à des fins commerciales ou de calcul. Elles ne sont pas censées nous donner un lien direct avec les humains, qui sont les destinataires de l'information.
Les données sont destinées au calcul, aux ordinateurs et aux spécialistes, et l'information est un domaine dans lequel nous sommes tous engagés. L'architecture des données et la façon dont elles circulent sont donc importantes. Et donc très souvent, ce qui se passe, c'est que les profanes sont amenés à penser que les données sont des informations. Et ce qui est obscurci, c'est que les données sont plus liées au capital. Ce qui signifie générer du profit. Et nous savons que dans un système de capital, le coût de ce profit n'est jamais réellement, jamais évalué. Et ce que je veux dire par là , c'est que nous sommes encouragés à commander des choses en ligne ou à utiliser nos ordinateurs pour tout, mais nous ne sommes pas encouragés à penser à ce qu'est le coût et qui le paie. Ainsi, lorsque nous commandons, nous savons que des travailleurs d'Amazon se trouvent dans des entrepôts dont la température est de 100 degrés et qu'ils se déplacent à des rythmes inhumains. Dans le but de faire du profit et de nous livrer quelque chose en un jour ou moins. Et quand il s'agit de calcul, on ne nous fait jamais penser au contexte. Ainsi, lorsque nous tapons sur les claviers et que nous sommes capables de faire un type particulier de calcul, nous ne sommes pas censés penser aux barrages, à la destruction, à l'électricité, à tout le carbone et au méthane qui sont produits, et surtout, à tous les minéraux qui sont nécessaires pour faire fonctionner ces appareils de calcul qui retournent en fait sur les mêmes sites de violence pour les Noirs et à travers les Amériques pour extraire les ressources.
L'architecture des données contient donc beaucoup de violence, une violence qui vise en fait les mêmes personnes. Ce sont les descendants de la transatlantique, du continent africain, des Amériques en tant que région sud, centrale et nord. Et pour être clair en ce qui concerne ce que l'exploitation minière mondiale indique dans sa documentation officielle, que les plus grands sites de tous les, je cite, minéraux de terres rares et minéraux nécessaires à la technologie actuelle, la majorité d'entre eux se trouvent en Afrique, la Chine venant juste après. La différence est que l'Afrique a été subdivisée en plus de 50 pays différents, et que la Chine a un ensemble particulier de gouvernance politique, faute d'un meilleur terme, et qu'elle les extrait plus facilement, sans avoir à se préoccuper des mêmes frontières politiques législatives et autres. Comprendre l'architecture des données, c'est aussi comprendre comment le monde est structuré et comment les données sont utilisées pour masquer le langage des données, pour masquer toutes ces violations environnementales, tous ces accidents miniers.
Je veux dire, soyons clairs, le conflit de la République démocratique du Congo n'est pas le conflit de la République démocratique du Congo. C'est le conflit de la Russie, de la Chine, de l'Inde, des États-Unis, du Canada et de tous les autres pays qui sont des acteurs majeurs de la technologie. Et il y a quelques liens que je peux essayer de partager avec ceux qui se sont inscrits et qui ont posté sur le site web en indiquant comment cette chaîne fonctionne. Et donc si nous ne pensons pas à ce qu'il y a derrière le voile. Ce qui est censé disparaître. Alors nous continuons à parler de données plutôt que de parler de tout ce que cela implique et si nous voulons parler d'information. Parce que je vais vous donner un exemple. Lorsque nous pensons à ce qui peut être ajusté, la première chose que nous devons ajuster est le cadre de réalité de notre objectif. Une grande partie de ce qui nous est présenté par la technologie, et j'utilise ces technologies. Je veux être clair, j'ai le plaisir de travailler sur des projets vraiment intéressants avec le Dr. Amber Simpson de l'Université Queen's. Elle est biologiste informaticienne au sein de la présidence de recherche Cznada, une des rares femmes à faire ce travail.
Et mon rôle est de regarder et nous regardons les cancers et les métastases. Je fais également du travail de diagnostic. Donc je suis très impliqué. Mais ce n'est pas sans une profonde réflexion. Ce n'est pas sans se demander quelle est l'éthique de tout cela ? Qu'est-ce qui est réellement possible ? Est-ce que je sauve quelque chose ? Ceux d'entre nous qui se trouvent dans les Amériques parce qu'ils sont dans des pays du premier monde ? Ceux qui peuvent voir ce que je viens de faire avec mes mains et qui jettent nos parents, nos proches à travers le monde sous le bus. Et donc c'est un vrai problème. Et constamment, lorsque je suis en réunion, je dois rappeler à mes pairs, qu'ils soient médecins ou informaticiens ou n'importe où entre les deux, est-ce vraiment la meilleure façon de procéder ? Juste parce que nous pouvons. ne signifie pas que nous devrions. Donc l'une des premières choses que nous devons ajuster est notre cadre de référence et qui paie le coût et qui obtient le bénéfice. Et de calculer cela avec les personnes qui sont impliquées dans ce processus. Parce que ce que nous voyons continuellement, j'étais dans une réunion et j'ai fait une présentation et c'était en radiologie.
J'ai fait une présentation en radiologie ainsi qu'une présentation plus générale, et j'ai également eu l'occasion d'assister à une autre conférence. Et c'était à la fois merveilleux de voir des collègues faire un travail extraordinaire dans le domaine du cancer et vouloir faire un travail qui changera les soins. Mais lorsque nous parlons de choses comme le diagnostic du cancer en temps réel. Nous devons ajuster notre objectif et comprendre à qui cela s'adresse, de quoi il s'agit et quel en est le coût, car cela nécessite un type particulier de technologie, n'est-ce pas ? Et cette technologie utilise des minéraux particuliers et produit une empreinte carbone massive qui augmentera la température de la planète de plus de deux degrés. Et je ne parle pas d'un seul sous-domaine de l'intelligence artificielle, d'accord ? Donc mes domaines du traitement du langage naturel et de l'imagerie médicale seuls. Juste un seul. Vous avez deux degrés. Donc, si vous passez en revue les 13 principaux domaines de l'intelligence artificielle, vous avez une planète ici. Vous avez une planète en feu. Et donc on ne parle pas de ça en Égypte et on n'en parlait pas.
Et on continue à ne pas en parler. Et c'est parce que nous devons reconnaître les six grands aux neuf grands. Il y a donc neuf grands acteurs de la technologie qui définissent en grande partie les chaînes d'approvisionnement sur le terrain et tout le reste, y compris la bourse. Certains diront, et ce n'est pas une conversation que beaucoup d'entre eux veulent. Et donc, nous nous retrouvons avec des conversations sur les données. Que devons-nous ajuster ? Que devons-nous calculer si nous voulons centrer la vie des femmes noires, qu'elles soient cis ou trans ou qu'elles soient identifiées comme femmes noires, comme personnes non binaires, comme personnes vivant avec différents types de handicaps et travaillant à travers différents cadres de référence. Si nous chérissons tout cela et comprenons ce que cela signifie de traiter les gens, cela signifie que nous devons recadrer la conversation sur notre parenté, notre écosystème, sur ce qu'est réellement la vie et la vie. Parce que malheureusement, sur le plan technologique, nous avons constaté à maintes reprises, avec l'avènement de chaque nouvelle technologie, une incapacité à calculer les pertes en vie humaine et en environnement.
Et juste pour ramener ça à la maison. C'est un réveil brutal quand on fait le calcul de la quantité d'énergie brûlée pour développer certaines de ces technologies et quand on sait que dans beaucoup de nos propres communautés, il y a de la moisissure dans les logements, de l'eau insalubre, une climatisation insuffisante en été. Pourtant, dans notre centre-ville, nous aurons des machines qui nous permettront d'être sur Internet, d'avoir l'air conditionné alors que les aînés étouffent et que les bébés ont trop chaud. Il y a donc un compromis à faire. Et on nous encourage à penser aux données, pas aux informations. Et à abandonner le contexte pour nous recentrer sur un avenir très blanc et brillant de déterminisme technologique. J'espère que cela vous a donné une très bonne idée de l'architecture du contexte et du langage utilisé pour obscurcir les choses, afin que nous puissions approfondir la conversation.
JACKIE GIRGIS : Merci beaucoup pour cela. Je voulais voir Idil si vous vouliez intervenir, si vous aviez quelque chose à dire à ce stade ou si nous devions simplement avoir une conversation.
IDIL ABDILLAHI : Oui. Eh bien, je vais essayer de... Tout d'abord, pour ceux qui regardent l'écran, j'ai éteint ma caméra pour des raisons d'accès et d'Internet. Donc ce que vous voyez à l'écran est juste une image de moi avec ma main sur la tête et un foulard coloré, des boucles d'oreilles, du rouge à lèvres rouge et un manteau. Mais je vais continuer à parler sans la caméra. Il n'y a pas grand-chose à dire parce que mes sœurs l'ont fait. Je ne sais pas vraiment s'il y a autre chose à dire pour moi. Donc nous sommes très reconnaissants à Ijeoma et LLana. Je pense que ce qui est le plus facile pour moi de m'inspirer, et que je ne m'attendais pas à le faire ce soir, c'est un article récent que j'ai soumis à l'American Journal of Community Psychology, qui traite du domaine qui m'intéresse le plus, à savoir la santé mentale, et en particulier l'endroit où je vis et où j'écris, dans ce qu'on appelle le Canada actuellement. Je vais donc peut-être reprendre quelques points critiques qui ont été soulevés par mes collègues ce soir et essayer de les aborder dans le contexte spécifique de la santé mentale.
Et les interventions basées sur l'IA, en particulier dans ce contexte, et peut-être que je pourrais élaborer davantage sur la façon dont je pense que cela affecte les personnes noires en particulier. Si vous êtes intéressés par la lecture de cet article, je vous invite à lire ce numéro spécial. Mais je pense que pour reprendre spécifiquement les propos de Sœur Ijeoma. L'une des choses qui m'a particulièrement frappée dans votre discussion et dans les points que vous avez soulignés, c'est que, franchement, pour dire les choses simplement, la race est une construction sociale et plus précisément une construction sociale qui a des impacts et des résultats matériels et délétères. Et donc, je pense que ce que nous nous demandons tous les trois, ou ce que nous déplorons aujourd'hui, c'est en fin de compte ce que l'on gagne à s'engager durablement à réinscrire la race comme un marqueur de différence biologique. Et très franchement, qui en profite ? Et si nous continuons à l'aborder de cette manière, comment comprendre les appels à une médecine raciale accrue, ou à des données basées sur la race, comme un outil ou un appareil technologique supplémentaire qui renforce les idéologies racistes sous le couvert de "l'équité et de la diversité." Alors Dr Ijeoma, c'est en quelque sorte l'une de mes premières réponses et lamentations à ce genre d'affirmation très simple, encore une fois, du point de vue d'un praticien et d'un chercheur, et heureusement, vous savez, je repense à l'époque où j'ai appris la recherche, n'est-ce pas ?
Heureusement, j'ai commencé à apprendre la recherche à partir du paradigme d'une femme du Sud qui m'a permis de comprendre les idéologies de l'intouchable. Et donc très tôt, en tant qu'étudiante de premier cycle, et en tant que femme noire musulmane, tous ces autres types d'identités que j'occupe, cette idée d'intouchabilité a résonné en moi, très franchement, tout au long de ma carrière. Ou même dans ma carrière de chercheuse, et dans la façon dont je pense à ce que signifie l'intouchabilité. Et donc l'une des choses sur lesquelles j'écris dans cette nouvelle pièce est vraiment l'impact de cette idée d'intouchabilité, en tant qu'étudiante de troisième année assise dans cette classe, puis en pensant plus loin à l'impact de l'intouchabilité, et ce que cela ferait pour les interventions, le travail, la recherche et la façon dont nous pensons aux gens. Encore une fois, parce que les personnes dont je suis le plus proche sont celles qui sont intouchables. Ceux qui sont touchés refusent, ceux qui sont touchés criminalisent, ceux qui sont touchés sont en fait révoqués en vertu de la folie, en vertu du handicap, en vertu de l'altération du genre, de la race, de la religion, du statut, etc.
Mais peut-être pour revenir à la dernière partie de la question. Et pour continuer à développer l'exemple que Llana a fourni. Encore une fois, je veux vraiment utiliser cet exemple pour réfléchir et reconsidérer collectivement la façon dont nous imaginons et pensons les notions d'intelligence artificielle. En grande partie, je suppose, parce que pour moi, je pense que ce que la plupart des gens pensent ou peut-être que c'est parce que ce à quoi je pensais à l'origine avant de commencer à me plonger dans la science informatique de l'IA et dans des idées plus larges de gestion des personnes, et non par la technologie, ce qui est arrivé plus tard dans mes études supérieures, j'imaginais vraiment des trucs à la télé, n'est-ce pas ? Et ça n'a probablement pas l'air très académique de ma part. Mais c'est en fait ce que j'imaginais dans la mesure où je n'étais pas encore à un endroit où je pouvais vraiment évaluer l'ubiquité des fonctions et des outils de ces systèmes. Et donc, à cette fin, j'ai personnellement commencé à y réfléchir et à considérer, ce qu'était l'IA à partir des perspectives les plus proches et les plus chères à moi.
Et je vous invite à faire de même pendant notre discussion de ce soir, c'est-à -dire à réfléchir vraiment à ce que nous faisons dans nos vies personnelles et intimes. Quels sont les appareils les plus proches de nous ? Et donc, l'une des choses auxquelles je vous demanderais de penser, ce sont les appareils mobiles, les téléphones portables, et plus particulièrement les smartphones. Et la raison pour laquelle je veux que nous réfléchissions aux smartphones en particulier, c'est que nous savons, grâce à des recherches et des données, qu'environ 4 milliards de personnes utilisent l'internet mobile. Et ces chiffres ne devraient franchement augmenter que d'ici 2025. Dans ce contexte, je suppose que je nous ai demandé de réfléchir aux données biométriques collectées par l'utilisation active et passive de ces appareils. Par utilisation active, j'entends les informations que nous fournissons volontairement et avec notre consentement aux applications, par rapport aux idées de collecte passive de données, qui sont souvent les moyens les plus invisibles par lesquels les gens collectent des données.
Et ils sont souvent immergés et intégrés dans des applications à notre insu. Donc en quelque sorte, je continue à dire en quelque sorte, mais pour vous inviter à penser à des exemples, comme les appareils portés au poignet, d'accord ? Donc Apple, qu'est-ce que c'est ? Les Apple Watches, les Fitbits, etc. Ces types de technologies comportent en fait des indicateurs de données spécifiques qui examinent ce que l'on appelle le compteur d'accélération des données, qui surveille et évalue essentiellement la fréquence, l'intensité et la durée de l'activité physique individuelle, n'est-ce pas ? Nous ne pensons peut-être pas qu'il s'agit là d'informations ou de données qui sont peut-être placées, collectées ou stockées ailleurs. Mais lorsque nous pensons à l'omniprésence d'un téléphone portable ou d'un appareil porté au poignet et à ce qu'il fait, je pense qu'il est vraiment important de réfléchir aux types de technologies intégrées dans ces appareils. L'une des choses les plus importantes, si l'on y réfléchit, c'est ce que l'on appelle les données de l'électrocardiogramme ou ECG. Et c'est souvent trouvé dans les Apple Watches.
Il a la capacité de suivre en permanence votre rythme cardiaque, etc. Nous avons également des choses qui sont considérées comme l'activité électrodermale, ou EDA, qui se réfère aux propriétés électriques de notre peau individuelle, d'accord ? Et donc, alors que nous parlons de race, et de toutes ces choses différentes, je voudrais aussi que nous réfléchissions à la façon dont les données dermiques électorales ont un impact sur les peaux racisée. Donc, cela a vraiment un impact, ou l'idée de ce genre d'intervention, c'est que ce genre de données électroniques dermiques peuvent en fait refléter les processus cognitifs et émotionnels dans notre système nerveux. Et puis, il y a ces applications plus, vous savez, connues, non ? Donc les données GPS, la localisation, nous savons tous que nos téléphones sont équipés d'appareils photo. Mais l'un des nouveaux éléments de recherche et de données, contrairement aux plus intéressants, est celui de Ruel, orthographié R-U-E-L et al. Et il s'agit d'un article de 2021, qui s'est avéré très intéressant, à savoir l'utilisation réelle des caméras pour l'expression faciale afin de signaler des types particuliers de maladies mentales.
Ainsi, par exemple, cette équipe de recherche particulière (UNKNOWN) a mis au point un système qui capture de manière opportuniste les expressions faciales tout au long de la journée en utilisant la caméra frontale du téléphone. Ces types de smartphones sont alors capables de fournir une échelle globale plus large des expressions faciales tout au long de la journée. Et donc je pense que dans ce contexte, dans mon discours sur l'idée d'avoir cette chose vraiment omniprésente dans votre main, le téléphone portable que nous utilisons, et comme, nous pouvons désactiver la localisation, et nous pouvons désactiver notre GPS. Mais on peut ne pas s'inquiéter de l'application de méditation de pleine conscience que l'on a sur notre téléphone et dont on pense qu'elle ne fait que nous rappeler certains types de choses, non ? Et donc, à part la pandémie, je pense qu'il est vraiment important pour nous de penser au fait que, en particulier aux États-Unis, nous voyons qu'il y a eu une augmentation de 14 ou 15 millions de dollars dans le financement de capital-risque vers des applications mobiles spécifiques comme celles liées à la santé.
Et plus spécifiquement, parmi ce nombre plus large, nous constatons qu'il y a une concentration, un coup de projecteur ou un intérêt pour les applications liées à la santé mentale. En fait, à tel point qu'elles ont créé une nouvelle catégorie de santé appelée mHealth. Et cette industrie particulière, en fait, à la fin de 2021, a levé 5,1 milliards de dollars dans des indications assez cliniques ainsi que des utilisateurs de services individuels. Et encore une fois, on s'attend à ce que cela augmente beaucoup, beaucoup plus. Et dans ce contexte, une grande partie de ce que nous voyons et de ce que ces applications font réellement est qu'elles surveillent des choses comme la conformité. Elles contrôlent en grande partie des éléments qui sont auto-déclarés, et il est également très important de souligner qu'il n'y a en fait aucun clinicien attaché ou évaluant les informations que les individus fournissent. Et donc, par conséquent, il y a des bots qui répondent à cela, et ces bots particuliers. Et je pense que je vais mettre une épingle dans ce morceau parce que nous pourrons en parler plus tard, ont des types particuliers d'impacts et de réponses pour racialiser des types de personnes.
Et donc je pense que c'est quelque chose d'autre que nous pouvons considérer. Et je pense qu'en fin de compte, les pièces les plus importantes, alors que les applications de santé mentale sont le nombre d'applications numériques à la croissance la plus rapide et la plus importante dans cette sorte de sphère d'applications. Ce que nous savons, c'est qu'il n'y a pas de réglementation ou d'informations fondées sur des preuves concernant l'utilité de ce genre de pratiques. Encore une fois, je reviendrai un peu plus tard pour me concentrer davantage sur les aspects liés à la course. Mais j'ai pensé qu'en réponse à certaines de ces questions, il pourrait être crucial de donner un aperçu de ce qui se passe ici. Je vais donc en rester là pour l'instant et je reviendrai peut-être sur certains de ces commentaires plus tard. Merci.
JACKIE GIRGIS : Merci beaucoup. Je voulais rappeler à tout le monde que si vous avez des questions, vous pouvez les poser dans les questions-réponses. Et nous sommes en train de le faire. Donc si vous avez des questions pour les panélistes, allez-y. J'ai une autre question qui est peut-être un peu différente de ce dont nous avons déjà parlé. Donc si vous voulez revenir sur quelque chose qui a déjà été dit, n'hésitez pas à ignorer ma question. Mais Dr Opara, lorsque j'ai consulté votre site LinkedIn, j'ai vu que vous aviez récemment publié un article sur le nombre de femmes noires médecins, et que ce nombre était en baisse. C'est donc assez faible. C'était les 2%, je crois que vous avez dit de tous les médecins aux États-Unis. Et c'est vraiment un petit nombre. Et le fait qu'il diminue est vraiment bouleversant. Cela m'a fait penser à ce que vous avez dit dans votre présentation sur la mortalité infantile. Je crois que c'était la mortalité infantile, je ne suis pas sûr si c'était comme dans l'accouchement, à la naissance d'une personne mourant pendant l'accouchement, je ne me souviens plus lequel c'était, mais que les personnes traitées par un médecin noir, ils avaient réduit cette mortalité de moitié.
Je me demandais donc si vous, ou peut-être les autres personnes, aviez des choses à dire à ce sujet, parce que c'est vraiment, je pense, un exemple très clair de racisme anti-noir, de soins culturellement compétents, de choses qui sont vraiment nécessaires pour que les différentes communautés puissent survivre même à des situations médicales très normales que les gens traversent.
IJEOMA OPARA : Oui. Vous m’entendez ? OK ?
JACKIE GIRGIS : Oui.
IJEOMA OPARA : OK.
JACKIE GIRGIS : Oui, nous pouvons vous entendre.
IJEOMA OPARA : OK, super. Merci. Je pense que c'est une excellente question. Avant de répondre à cette question, je voudrais revenir sur ce que le Dr Idil a dit, parce que je pense que c'était fantastique. Et aussi, bien sûr, Soeur LLana est toujours brillante dans sa déconstruction de presque tous les sujets sur lesquels elle met la main. Et j'ai apprécié cette différenciation des données et des informations parce que je pense que c'est lié à ce dont parlait le Dr Idil. J'ai écouté et je lui suis reconnaissante d'avoir soulevé cette idée d'applications intelligentes, de smartphones intelligents et d'applications. Parce que c'est une belle sorte d'intersection autour de ce dont nous parlons quand nous parlons, vous savez, de la médecine fondée sur la race, de la façon dont elle est intégrée dans notre technologie et de l'apprentissage. Quelles sont les cohortes que j'ai utilisées pour enseigner, l'intelligence artificielle qui fournit ces données et l'intersectionnalité avec le capitalisme ? Comme l'a dit Soeur Llana, le langage des données est souvent le langage d'une transaction.
Et cela est généralement utilisé pour masquer l'intention de faire du profit, n'est-ce pas ? L'intention du capitalisme en fin de compte. Et je pense, vous savez, que l'une des meilleures choses dans toute l'histoire des gens, surtout dans cette partie du monde, je pense que ça a été dit, c'est de suivre l'argent. Comme si... s'il n'y a rien d'autre que nous ne sachions pas, dans la vie, si vous pouviez juste savoir ça, suivez l'argent. Si vous voulez savoir et comprendre ce qui se passe, pourquoi ceci, pourquoi cela, suivez l'argent. Commencez par ça. Et puis vous pouvez aller de là pour déballer. Et donc j'ai rapidement recherché quelques informations basées sur ce dont le Dr Idil parlait. Et, vous savez, aux États-Unis, je ne suis pas, bien sûr, je ne suis pas au Canada, donc je ne peux parler du Canada, mais aux États-Unis, à cause du redlining numérique ou du redlining technologique. Et qu'est-ce que c'est ? Le redlining était la politique et la loi du gouvernement, qui a pratiquement officialisé la ségrégation, la ségrégation résidentielle. Et a ensuite lié toutes les autres ressources de la société aux résidents, de sorte qu'en fait, vous ségrégez tout le reste.
Ainsi, la qualité de votre hôpital et de vos soins de santé cliniques, une ressource, est liée à vos résidents. La qualité de l'éducation est liée à vos impôts fonciers, donc à votre lieu de résidence. Tout se passe là où vous vivez. Et c'est pourquoi nous disons que ce qui va déterminer vos résultats et expériences en matière de santé, c'est votre code postal, pas votre code génétique. Et je ne sais pas si vous avez tous un code postal là -bas, mais ici, vous savez, les résidences, puis les villes et les géographies spatiales, organisées par les codes postaux. Et donc nous disons, votre code postal déterminera vos résultats plus que votre code génétique, pour ainsi dire. Comme si c'était le seul code dont vous aviez besoin. Et c'est à dessein que cela s’est produit. Donc le gouvernement a donné ou sponsorisé ou il y a tout un détail à ce sujet, des prêts hypothécaires,pour permettre au système bancaire de proposer des prêts hypothécaires aux gens en fonction de leur race. Et en faisant cela, ils ont plus ou moins découpé les villes et les lignes rouges, certaines zones étaient rouges, d'autres vertes et d'autres encore jaunes.
Et donc les zones rouges étaient pour les noirs et les juifs. Et si vous demandiez un prêt pour acheter une maison dans une zone verte ou jaune, vous étiez refusé. Cette pratique était censée avoir été éradiquée dans les années 60. Ça a duré des années 30 aux années 60. Mais ça continue encore aujourd'hui, ce n'est pas officiel. Mais l'héritage de cette pratique continue aujourd'hui où les maisons des noirs continuent à être évaluées des centaines de milliers de fois moins que celles des blancs. Et la liste continue encore et encore. Et je dis tout cela pour dire que cela a déterminé beaucoup de choses en termes de ségrégation, y compris la technologie, y compris l'accès à l'internet et au haut débit, par exemple. Alors, à quoi cela mène-t-il ? Une plus grande partie de notre population noire et brune dépend des smartphones pour l'accès à Internet. C'est vrai. Et il y a un article récent qui a été écrit par un brillant journaliste d'investigation et j'ai tweeté à ce sujet qui a vraiment décomposé comment le redlining numérique, et vous m'envoyez tous des textos ou des messages si je parle trop vite.
J'essaie d'être consciente, le redlining numérique. C'est la façon dont ça continue, comment vous pouvez littéralement payer 50 $ pour ou plutôt un quartier a été facturé, je veux dire environ 50 $ pour cinq mégaoctets, et puis neuf minutes plus loin dans un quartier plus riche, plus large, ils ont été facturés, comme je ne sais pas, vous savez, 10 $ ou plus pour à peu près la même chose. Il y a tellement de façons dont ces choses se produisent. Et puis on les explique en disant, oh, la demande, vous savez, il y a tellement de façons, c'est ce qu'on appelle le racisme structurel, l'ombre est structurée. Donc avoir... Ceci étant dit, le plus grand nombre ou pourcentage de populations ou communautés noires et brunes dépendent de leur smartphone pour accéder à internet. Et un sondage de Pew Research a montré qu'une partie importante de leur utilisation d'internet est pour des informations liées à la santé. Exact. Et quand vous faites cette partie de cela aussi, et ce sera intéressant que le Dr Idil apporte tant de pensées intéressantes ici. Et je ne sais pas et je dois faire une recherche.
Et Dr Idil, peut-être que si vous l'avez vu, vous pouvez m'informer des études sur l'utilisation des applications de santé en particulier et comment elles se répartissent par race. Je n'ai pas encore vu cela. Mais je n'ai pas non plus fait une bonne recherche. Donc c'est un devoir pour moi. Et donc... Dr Idil je vois que vous allez me mettre un peu au courant. Mais juste pour finir la réflexion. Alors qu'est-ce que... qu'est-ce que je vois ? Des communautés noires et brunes qui sont déjà rendues socialement vulnérables à cause de la suprématie blanche et du racisme structurel. Je les place dans une situation de plus grande vulnérabilité, c'est vrai, dans une situation de plus grande vulnérabilité pour l'interaction ou l'engagement avec ces outils qui nous exposent à divulguer des informations ou des données, et LLana comme et corrigez-moi si c'est approprié ici, aux sociétés qui les traduisent ensuite en profits. Et c'est l'une des façons dont, la complexité de ces pièces. Et ce qui s'est passé historiquement, c'est que nous avons toujours été en quelque sorte le matériel d'enseignement. Nous fournissons les données et les informations à ces institutions scientifiques et académiques, ainsi qu'aux entreprises, jusqu'au système d'esclavage des esclaves nord-américains et au-delà .
Nous fournissons ces informations à partir de notre corps. Littéralement, nous avons fait ça en médecine et en science, n'est-ce pas ? L'image sur ma diapositive d'introduction est celle d'Henrietta Lacks, et j'espère que vous savez tous qui est en réalité Henrietta Lacks. C'est la femme dont les cellules cervicales ont été à l'origine de toutes les découvertes modernes, y compris le vaccin COVID. Et elles ont été extraites d'elle sans consentement et sans compensation, pour elle et sa famille. Et donc nous avons toujours été le matériel d'enseignement. Que l'on s'en rende compte ou non, nous avons toujours... nos corps, nos esprits, nos comportements ont toujours été utilisés pour extraire des informations et des connaissances, mais cela ne nous a jamais vraiment profité. C'est plutôt au profit des communautés et des peuples prédominants que le matériel est extrait de nous, sans compensation, et que le profit est fourni à l'autre bout. Et donc, comprendre les façons dont tout ce processus est obscurci, soit comme LLana et comment cela se croise avec la justice dans la technologie, l'espace technologique, et la santé, je pense que c'est une conversation critique.
Donc je veux juste vraiment apprécier cette offre. Et puis,je vais vous répondre rapidement, Jackie, en ce qui concerne les moins de 2%. C'est vrai. En Amérique du Nord et aux États-Unis d'Amérique, les médecins sont essentiellement 5% à être noirs ou afro-américains ou noirs, et moins de 2% d'entre eux sont des femmes noires. Et ce nombre diminue parce que ce qui se passe, c'est que, l'anti-négritude continue toujours sans relâche, bien qu'il soit toujours en cours. Beaucoup d'entre nous font l'expérience de la misogynie, du sexisme et du racisme sur le lieu de travail, et sont forcées de quitter leur formation ou de travailler dans des espaces de travail toxiques et racistes. Et donc, les chiffres sont, malheureusement, en baisse. Et à propos de ce qui se passe lorsque le taux de mortalité des bébés noirs est réduit de moitié, lorsqu'il y a un médecin noir qui s'occupe d'eux. Ces chiffres sont améliorés quand nous sommes plus nombreux dans l'espace. Donc, dans les espaces où il y a des médecins noirs présents et actifs, et où il y a une représentation appropriée, vous voyez une meilleure rétention de nous dans les espaces, dans les soins de santé et dans les universités, ce qui est une sorte de cercle vicieux, n'est-ce pas ?
Parce que nous sommes aussi, retirés et extraits de ces espaces, et pourtant il faut que nous soyons présents pour aider à nous retenir. Donc ce cercle vicieux pour moi, et je pense souvent au travail du Dr Idil sur la démence, c'est exaspérant. C'est exaspérant, et il y a des conversations à avoir sur la façon dont nous abordons cela. Donc je pense que c'étaient d'excellentes questions. Merci. Je suis vraiment curieuse de savoir. Je pense que le Dr Idil avait quelques informations à ajouter à cette conversation et aussi les pensées de LLana à ce sujet.
IDIL ABDILLAHI : Oui. En fait, l'une des choses que je voulais partager en particulier, comme l'utilisation accrue des applications mobiles dans la santé mentale est en fait pour des raisons d'accès et d'équité. C'est l'idée que les populations diverses, silencieusement, les Noirs en particulier, n'ont pas accès aux services de santé mentale et que l'utilisation de l'application pourrait créer l'opportunité de le faire, n'est-ce pas ? Tout d'abord, et je pense que l'autre aspect de la question est qu'elle offre aux individus ou aux systèmes de prestataires de services la possibilité de contrôler la conformité des patients, des personnes et des communautés, n'est-ce pas ? Et je pense qu'une des choses que vous disiez à propos de l'idée de diversité, qui est anti-noir ou noir, c'est vrai, ils se réfèrent encore à cela comme à une compétence culturelle dans la sphère des applications numériques autour de la médecine raciale, ce qui, je pense, est en soi son propre problème et sa propre crise. Cela dit, ils sont actuellement dans une sorte de ma dernière vérification de cela, qui était, au début de 2022, il n'y a que deux études qui se concentrent réellement sur les expériences et/ou les utilisations des applications de santé mentale.
Et je ne parle pas des autres types d'applications, que ce soit pour le diabète ou parce qu'il existe de nombreux types d'applications de surveillance de la santé. Encore une fois, je parle de mon domaine d'expertise et d'intérêt, mais il n'y a que deux études qui se penchent réellement sur les expériences des Noirs et l'utilisation des applications parmi la myriade de recherches, d'examens systémiques et de méta-analyses sur ces questions. Et donc je pense que l'un des autres points critiques que je et peut-être encore une fois, de l'endroit où je suis et j'ai écrit à ce sujet dans l'espace public avec deux de mes étudiants étonnants sur l'application Pocket Well, qui est en fait ce que j'écris dans l'American Community Psychology Journal qui est que, l'application PocketWell au Canada, qui est une application de santé mentale a en fait été lancé quelques instants après le meurtre de George Floyd. Et plus précisément, lorsque le gouvernement canadien a annoncé l'objectif de cette application, il l'a annoncé comme une réponse à l'équité raciale. Et donc, à ce moment-là , j'ai pensé que l'une des choses importantes à faire était de créer une intervention autour de la façon dont nous pensons à l'accès à la santé, comment nous pensons à l'exploitation des personnes vulnérables en général, n'est-ce pas ?
Et j'utilise le mot vulnérable ici dans le contexte des discours dominants. Mais il est assez révélateur que le plus grand nombre d'applications de santé sont des applications de santé mentale, non ? Et les applications de santé mentale n'ont pas de preuves. Et en fait, et je veux vraiment lier ça à ce récit ici, qui est un autre domaine d'intérêt pour moi, qui est cette idée d'alliances thérapeutiques numériques, qui en fait, enlèvent complètement l'individu, le praticien, le thérapeute, le travailleur social, quiconque de la conversation. Et donc, encore une fois, dans ce type de relation thérapeutique et d'engagement thérapeutique que le discours subversif est en fait que si nous utilisons l'apprentissage automatique et l'IA qui élimine toute sorte de parti pris ou de problèmes, etc. Donc, enlevez la personne. Utilisons la machine comme si, en fait, ce n'était pas les humains qui utilisaient des données généralisables et des données algorithmiques, des données prédictives, racistes, prédictives, anti-noires, plus saines, comme toutes les données sur les ismes, n'est-ce pas ? Ce sont ces individus qui saisissent réellement ces données.
Il ne s'agit donc pas d'applications bénignes, omniprésentes, qui sont en fait,sans leur propre genre de biais inhérents. Et donc je pense que c'est vraiment important. Et l'autre point vraiment unique que je pense qu'il est vraiment important de mentionner, c'est que même s'il y a certainement une très forte augmentation de l'utilisation des téléphones mobiles et des appareils mobiles, je pense qu'il est vraiment important de mentionner, et c'est encore une fois tiré d'une étude de Stanworht, qu'il y a 184 millions de femmes de moins que d'hommes qui possèdent des téléphones mobiles. Et en plus, je pense qu'au-delà de ça, ce que j'aimerais ajouter, c'est qu'il y a aussi une sorte de fossé significatif dans l'utilisation de ces applications, non ? Et donc nous devons, tous ensemble, vraiment réfléchir à des idées comme... ...qui nous, donc en effet, beaucoup de gens ont des appareils mobiles, beaucoup de gens ont des smartphones, tout le monde n'a pas d'abonnements. En fait, le pays par habitant qui n'a pas, ou qui n'est pas abonné à des applications en ligne, est l'Érythrée, située en Afrique de l'Est.
Et donc, je pense que ces distinctions sont importantes, mais je pense que cela reste globalement le fait que les femmes sont celles qui n'ont pas accès aux appareils mobiles. Encore une fois, c'est un intérêt pour moi, pour ma recherche qui parle de quelque chose d'assez unique. Je vais donc m'arrêter là , à moins que d'autres questions ne soient posées.
LLANA JAMES : Je me demandais si je pouvais partager une diapositive juste pour un moment. Donc, vous le savez, et je veux revenir un peu en arrière et présenter mes excuses pour ne pas m'être décrite. Donc, je vais essayer de le faire. Et ça ressemble à ça. Je suis une femme de couleur brune, caramel foncé, qui serait autrement décrite dans la catégorie raciale des noirs. J'ai les cheveux couverts et ils sont dans des tons sourds de vert et de brun caramel, tout comme ma chemise, qui est de couleur unie. Et je porte un collier à perles multiples. Je porte aussi des lunettes. Et derrière moi, il y a toutes mes choses préférées, à savoir mes plantes et une photo de ma grand-mère pendant que je vous parle. Je vous présente donc mes excuses pour ne pas avoir donné une description de moi-même. Je vais partager l'écran. Et je vais faire de mon mieux pour faire une narration de ce qui est sur l'écran. Et je le partage dans le but de donner une meilleure articulation des données par rapport à l'information afin que je puisse continuer à répondre. Et faisons comme ceci. Alors, est-ce que tout le monde peut voir ça en grand ?
DR IJEOMA NNODIM OPARA : Yep.
LLANA JAMES : Donc, ceci est tiré d'une présentation que j'ai faite à la Dalhousie Law School. Et vous pouvez la trouver sur le site web de la Dalhousie Law School dans leur Institut de la santé et du droit. Et j'ai parlé de quelques provocations. Mais si vous remarquez la boîte du haut, c'est une diapositive PowerPoint. Et ce sur quoi nous nous concentrons dans cette diapositive PowerPoint sont deux boîtes. L'encadré du haut est un exemple de données. Il fournit une adresse, mais ordonnée de la même manière que les données. Et la boîte du bas vous donne un exemple d'information. Et comme vous vous en souvenez, j'ai décrit que l'information est contextualisée. Elle suit des conventions que beaucoup d'entre nous peuvent comprendre et que nous partageons comme un langage basé sur le temps, le lieu et l'espace. Ainsi, dans l'exemple du bas, il y a une adresse traditionnelle écrite comme Joe Smith, 1234 Circle Road, par exemple, Salt Lake City, UT pour l'Utah, un code postal et un numéro de téléphone. La boîte du haut est un exemple de données. Elles sont ordonnées de la manière dont nous les aurions pour un calcul ou des données brutes. Ainsi, il y a UT au début, 123, Joe, Circle, SLC, le code postal complet jusqu'au numéro de téléphone complet, sans interruption, le code postal, sans interruption, puis Smith à la fin.
Et donc, si quelqu'un recevait simplement l'exemple de données de la boîte supérieure, quelqu'un reconnaîtrait-il cela comme une adresse ? Il penserait, "Oh, j'ai des informations." Peut-être qu'il y a quelqu'un qui s'appelle Joe Circle, est-ce que SLC est un lieu, et est-ce que c'est un numéro de téléphone ? Donc, quand vous regardez cela, ou qu'on vous donne ces informations dans cet ordre, cela ne suit aucune convention. Il y a beaucoup de mots, beaucoup de lettres et de chiffres. Mais sans contexte, sans convention sociale, sans cela, il est impossible de les distinguer en tant qu'information. Alors qu'en dessous, nous avons le prénom, le nom de famille, le numéro de l'adresse, la rue, qui suivent des conventions. Donc, nous pouvons regarder ça et dire, oh, c'est l'adresse de Joe Smith. Et nous pouvons alors agir en fonction de cela sans avoir besoin d'une interprétation supplémentaire ou d'une assistance informatique ou linguistique. Je veux partager cela. Parce que, vous savez, les adresses sont des informations conventionnelles que beaucoup d'entre nous ont l'habitude de voir et qui ne nécessitent aucune spécialisation. Mais lorsque vous regardez la grande différence entre ces deux informations, et c'est très simple, nous ne parlons pas de catégories de races inventées, nous ne parlons pas de diagnostics cliniques, nous ne parlons pas de radiographies, d'images médicales issues de scanners, nous parlons simplement d'un langage ordinaire que beaucoup d'entre nous connaissent, vous pouvez voir comment cela devient ininterprétable.
Et je voulais revenir sur un point évoqué par le Dr Abdillahi ainsi que le Dr Opara, à savoir l'intelligence artificielle et son intersection avec la pratique clinique et la santé mentale. Et j'aimerais souligner que nous devons comprendre que lorsque nous parlons d'intelligence artificielle, nous ne parlons en fait pas toujours de la même chose. Ainsi, j'aime rappeler aux gens que l'intelligence artificielle n'est ni artificielle, ni intelligente. Et qu'est-ce que je veux dire par là ? Je veux dire qu'elle n'est pas artificielle parce qu'elle est constituée de données. Vous vous souvenez de la différence ? C'est pour ça que je vous ai montré la diapositive data, les données, c'est un tas de lettres, de chiffres. Et dans le calcul, il y a beaucoup de symboles et d'autres choses qui se passent. Les données ne viennent pas sans contexte. Elles sont désassemblées pour être hors contexte afin de pouvoir être déplacées, utilisées, manipulées principalement pour le bénéfice d'autres personnes, car les transactions produisent différents types de richesse et d'échanges monétaires. Ainsi, lorsque nous pensons à l'intelligence artificielle, nous parlons de ce qui s'est passé dans le passé, décomposé en unités singulières de données, c'est-à -dire en informations non contextuelles, recombinées et manipulées.
Je fais des mouvements circulaires avec mes mains pour décrire les façons dont les données que vous avez vues comme une adresse peuvent être décomposées, liées à d'autres données et recombinées pour produire plus d'informations sur Joe Smith, mais sans contexte. Et donc, sans contexte, nous n'avons pas de sens. Et donc la composante intelligence artificielle, la composante artificielle est l'artifice de prendre ce qui est de l'information, de la réduire en données, et ensuite de créer, de créer ce qui n'est pas vrai en le recontextualisant d'une manière qui n'a jamais été prévue. Nous suivons cela. Donc, c'est artificiel dans la mesure où cela ne représente pas la vérité dans le contexte où elle s'est produite. Quand je parle de vérité, je parle de la séquence des événements. Par exemple, si vous avez votre dossier médical électronique ou la transcription d'une conversation avec un professionnel de la santé mentale, un algorithme d'intelligence artificielle va le décomposer, le prendre et l'attacher à des éléments d'information disparates, peut-être votre permis de conduire au bureau des transports, vos messages en ligne.
Si tout se passe au sein d'un même écosystème, comme c'est le cas au Canada, il se peut que, par exemple, les propriétaires de Pharmaprix soient aussi les propriétaires de Loblaws, qui sont aussi les propriétaires des dossiers médicaux et de santé électroniques. Et votre carte de fidélité de l'un et vos ordonnances de l'autre. Et puis peut-être avez-vous également souscrit à d'autres options de fidélité ou accédé à d'autres types d'équipements. De cette façon, vos données sont séparées, combinées avec d'autres et vous obtenez un profil composé. Et je pense que c'est important parce que ce dont le Dr Abdillahi et le Dr Opara ont parlé se cache derrière quelque chose d'invisible, à savoir vos profils, vos profils de données. Donc, toutes ces données qui sont prises, comme l'a décrit le Dr Abdillahi, par les montres numériques, par ces différents dispositifs algorithmiques de calcul qui sont intégrés et connus de vous et inconnus, créent un composite. Donc, il crée un composite à partir du recyclage du passé. C'est pourquoi il n'est pas artificiel, car il ne prend que le passé, il peut le recombiner en des centaines de milliers de millions de combinaisons différentes parce que les ordinateurs peuvent déplacer ce passé et prétendre ensuite prédire l'avenir en n'autorisant que les données du passé et prendre toute nouvelle donnée et la reconfigurer dans le cadre antérieur du passé.
Donc, nous devons nous poser la question que le Dr Abdillahi, a posée, à qui cela profite-t-il ? Qui cela fait-il prospérer ? Et quelle en est la motivation ? L'intelligence artificielle n'est pas intelligente parce qu'elle cherche à organiser l'information pour qu'elle devienne des données, pour qu'elle devienne prévisible. La prévisibilité signifie que maintenant on peut chercher à trouver des moyens de monétiser, de financiariser l'humain, ce qui nous ramène au tout début de la façon dont nous nous sommes retrouvés dans cette configuration actuelle sur l'écran en ce moment, ce qui nous ramène au commerce d'esclavage transatlantique et à la violation violente des Amériques et à la transformation de l'économie mondiale. Ainsi, avec l'intelligence artificielle et les calculs nécessaires pour la faire fonctionner, nous avons la possibilité d'être en pré-émancipation pendant la période où le monde a accepté et participé au trafic et à l'abus d'enfants, de femmes, d'hommes et de personnes non-binaires.
Et nous appelons cela l'esclavage transatlantique. C'était dégoûtant, c'était ignoble et ça continue d'exister. Nous sommes dans son au-delà . Mais ce que fait l'intelligence artificielle, c'est qu'elle nous permet de rester, en fait, laissez-moi corriger cela, elle nous permet de retourner là d'où nous venons, parce qu'au bout du compte, nous avons un corpus de 500 ans. Un corpus, c'est comme ça qu'on parle des données dans leur forme la plus brute, un corpus. C'est aussi utilisé en littérature, corpus. Et c'est un énorme trésor de données de 500 ans qui a été construit et élevé exclusivement à l'image de la suprématie blanche. Et nous le savons parce que nous avons des centaines de milliers de documents et nous vivons ici dans sa vie après la mort. Et donc, comprendre cela, c'est comprendre pourquoi nous sommes obsédés par les données sur les marchés mondiaux parce qu'elles produisent de la prévisibilité. Et les personnes asservies sont prévisibles parce qu'elles n'ont pas le choix d'agir autrement. Ainsi, lorsque nous continuons à recueillir ces données, qu'elles nous soient enlevées ou qu'elles nous soient remises volontairement, nous créons le fourrage nécessaire à cette prévisibilité.
Donc, cette prévisibilité permet de dire, bien, c'est un profil de risque au début de votre question, Jackie. Donc, un profil de risque est basé sur ce que l'on attend de vous et ce qui se passe réellement et la différence entre les deux. Donc, si le résultat souhaité est un résultat que vous n'atteignez pas pour une raison quelconque, qu'il s'agisse de votre comportement mental ou de la façon dont vous vous présentez, le risque est l'évaluation entre les deux. Et donc, maintenant, le fait que les logiciels de reconnaissance faciale reviennent aux questions d'origine entraîne un retour à la phrénologie. Et la phrénologie était une pratique où l'on pensait pouvoir utiliser votre crâne pour évaluer votre criminalité, votre orientation sexuelle, mais aujourd'hui, il s'agit toujours de votre crâne car ce qui est cartographié dans la reconnaissance faciale, encore une fois, je vais décrire ce que je fais, je pointe les points clés du visage, c'est-à -dire votre front, votre occipital, la structure osseuse de vos yeux, votre nez, l'espace entre et votre mâchoire, ainsi que la proximité entre votre cou, votre menton et votre poitrine.
Ce sont des zones clés qui sont utilisées par les caméras pour trianguler, ce qui explique pourquoi maintenant, lorsque vous portez votre masque facial, si vous utilisez cette fonction sur votre téléphone, il peut toujours déterminer qui vous êtes avec votre masque facial parce qu'il cartographie votre visage et la structure osseuse de votre visage. Et donc, ce que cela signifie également, c'est que lorsque nous parlons d'intelligence artificielle et d'applications de santé mentale utilisant des expressions tout au long de la journée, comme nous l'avons vu dans d'autres recherches, il s'agit alors de déduire ce qu'ils croient être cette expression sur la base de ce qu'ils savaient dans le passé à partir d'un cadre très spécifique "parce que rappelez-vous comment nous nous exprimons en fonction de la culture. Dans certaines cultures, nous utilisons une série d'expressions et elles communiquent une chose. Mais ce qui est malheureux avec l'intelligence artificielle, c'est qu'elle se comprime pour ne faire qu'une seule culture, la culture centrale. Et c'est, dans les Amériques, dans le monde anglophone, c'est ce qui dépasse et continue de fuir, qui est la suprématie blanche de l'Europe et des Amériques.
Et donc, nous devons nous rappeler qu'elle n'est pas artificielle, elle est produite à partir d'un corpus de 500 ans de données suprématistes blanches. Et comme vous l'a dit le Dr Ijeoma, les associations et sociétés médicales actuelles ont défendu l'exclusion raciale, l'idée que les Noirs, les femmes et les personnes handicapées étaient non seulement inférieurs, mais devaient être contrôlés par d'autres. Et donc, c'est ce qui se trouve dans des centaines de milliers de pages de journaux médicaux évalués par les pairs. Et comme beaucoup d'entre nous le savent, l'homosexualité n'a été dépénalisée que dans les années 1980. Ainsi, tout ce que l'on trouve dans le corpus de la littérature avant cela parle du fait d'être queer, trans comme étant médicalement et cliniquement déficient et malade. Nous devons donc comprendre et ne jamais mettre de côté le fait que la seule chose sur laquelle l'intelligence artificielle peut travailler est ce qui s'est passé. Et tout ce qui est compris dans le moment présent est encadré dans ce passé. Et cela nous amène à comprendre que lorsque nous pensons à ce qu'elle fait avec les applications de santé mentale ou dans les soins cliniques, cela signifie qu'elle recycle certaines des périodes les plus violentes auxquelles les Noirs, les personnes handicapées et les personnes démentes ont survécu tout en nous disant que quelque chose peut être différent, mais il n'y a pas de différence dans le cadre qui peut être saisi parce que, comme vous l'apprenez de l'image des données par rapport aux informations qui sont préprogrammées.
Sans la capacité de comprendre le calcul et de le contrôler, vous ne pouvez pas le manipuler. Je vais donc terminer en répondant à une question précédente, à savoir : qu'est-ce que cela signifie pour les données basées sur la race ? Cela signifie que lorsque les Noirs et d'autres personnes plaident pour des données basées sur la race, on peut, quelqu'un comme moi, ne peut que croire qu'ils ont besoin et ont besoin de soutien pour comprendre l'architecture des données. Et que la race noire n'existe pas. Nous n'avons pas, il y a, nous ne mettons pas les mots en B-L-A-C. Ce n'est pas ce qui se passe dans le codage. Ce n'est pas ce que vous obtiendrez. C'est quelque chose que vous ne pouvez pas reconnaître. Mais ce que ça fait, c'est que ça le relie à toutes les autres choses qui ont été reliées à la négritude. Et nous savons, comme je viens de le souligner, que nous avons une histoire de 500 ans, depuis les 14ème, 15ème, 16ème, 17ème et 18ème siècles, de ce que signifie être noir, être associé à l'Afrique, être associé à l'indigénéité. Et nous le savons parce que nous avons des constitutions qui ont été créées, nous avons des accords généraux des Nations Unies qui demandent ce qui devrait être fait sur la façon dont nous traitons les autres êtres et comment nous traitons les gens de façon à ce que ce soit légal et non violent.
Ainsi, lorsque nous demandons des données fondées sur la race, ce que nous demandons en réalité, c'est d'être connectés à un passé que nous n'avons jamais créé nous-mêmes, sur lequel nous n'avions aucun contrôle, en tant que peuple souverain et autodéterminé, sur ce qui était documenté et écrit. Et nous nous réinscrivons dans ce passé. Et donc, à qui cela profite-t-il ? Cela profite aux marchés parce qu'au Canada, nous avons la recherche, le redlining est arrivé ici, c'est arrivé à mes parents. Nous avons des périodes, nous avons des articles à ce sujet. Ce n'est pas un phénomène américain. C'est un phénomène de toutes les colonies raciales construites dans le monde, de l'Australie à l'Afrique du Sud en passant par l'Argentine. Et donc, ce que nous demandons en fait, c'est une solution qui aurait pu être bien adaptée avant 2007, avant l'internet, lorsque nous avions encore des armoires et des papiers et que les choses restaient à un endroit. Les données fondées sur la race ont été considérées comme une occasion de répondre à la question suivante : comment obtenir justice ? Comment se fait-il que lorsque les Noirs essaient d'accéder à certains systèmes, les résultats sont négatifs ? Alors, comment pouvons-nous suivre cela ?
Et donc, ce que les gens demandaient, et nous pouvons y regarder, nous pouvons voir ce que nos aînés ont fait dans les décennies passées pour créer un cadre de soulagement et d'opportunité pour les noirs, c'était de demander justice. Mais au lieu de la justice, on nous a dit de créer, de collecter des données basées sur la race. Ainsi, plutôt que d'intervenir en temps réel, on nous a encouragés à collecter des données sur ce qui arrive aux Noirs dans le COVID. Et je demande toujours aux gens, pourquoi vous avez besoin de données ? Et ils répondent, eh bien, nous avons besoin de savoir ce qui se passe. Et je leur réponds, eh bien, vous savez quoi ? Si vous faites partie de la conversation, si vous faites partie de la communauté, vous savez ce qui se passe. Je sais ce qui se passe dans les communautés noires parce que je suis présente, je prospecte, je fais les types d'inter-engagement et de construction de relations appropriés. Et donc, je sais que je n'ai pas besoin de m'asseoir loin, quelque part, avec les informations d'autres personnes hors contexte et de prétendre que ces données peuvent faire quelque chose indépendamment des personnes à qui elles appartiennent. Pour résumer, lorsque nous ne comprenons pas que la race n'est pas biologique et que nous nous laissons continuellement bercer par l'idée que la race est biologique, nous associons la race à de nombreuses choses qui ne sont pas biologiques, nous faisons des déductions inexactes et nous produisons des pratiques cliniques et une médecine de piètre qualité.
Et ça ne fait qu'empirer, encore et encore. Et donc, en offrant ces données, soit involontairement, comme le Dr Abdillahi en a parlé, soit passivement par le biais d'appareils que vous achetez ou auxquels vous vous abonnez, soit en vous les arrachant, vous ne faites que renforcer l'infrastructure actuelle de la dépossession et de l'inégalité raciales. Et je dois nous rappeler à tous que si vous voulez que quelque chose s'arrête, vous devez arrêter de l'entretenir. Ainsi, si vous voulez mettre fin à la violence liée à la race, vous ne pouvez pas continuer à l'alimenter en lui fournissant de plus en plus de données afin qu'elle puisse créer des informations inexactes sur qui vous êtes réellement et seulement sur qui vous pouvez être imaginé à travers les transactions qui produisent de la richesse pour les 1%. J'espère que cela a permis de relier certaines ficelles en termes de données, d'informations, de race et de préoccupations profondes que nous devrions tous avoir, et que nous nous demandons pourquoi de nombreuses personnes ne comprennent pas l'architecture et la valeur des données qui sont séparées et distinctes de leur vie ou de leur contrôle.
JACKIE GIRGIS :
C'était génial. Merci beaucoup, Dr James. J'avais une question à ce sujet, mais je ne sais pas si une de vous deux veut intervenir en premier. Et juste un rappel, il nous reste un peu moins de dix minutes.
DR IJEOMA NNODIM OPARA : Oui, je voulais, j'ai toujours aimé être en présence de LLana parce qu'elle donne toujours un sermon sur, sur environ six montages, vous savez, vous l'écoutez et ensuite vous allez de l'avant et vous passez un examen et vous devenez vous-même un docteur, juste à partir d'un, vous savez, la dissertation qu'elle offre. LLana, c'était, c'était, c'était excellent et remarquable comme, comme toujours. Et ça m'a fait réfléchir parce que comme je l'ai dit, j'ai une subvention, je suis co-investigateur sur un NIH. NIH est l'Institut National de la Santé, qui est l'organe de recherche du gouvernement ici, aux Etats-Unis. Et donc, nous avons, nous avons un sommet de deux jours pour toutes les recherches, les études qui ont été faites dans ma, dans ma cohorte. J'ai donc écouté quelques présentations, et j'y ai fait référence dans mon exposé, mais il y en a une qui a attiré mon attention, et elle portait sur la vitamine D. Il y a toute une histoire sur la vitamine D, dans laquelle je n'ai pas le temps de m'attarder. Mais il suffit de dire que l'histoire qui circule est que, vous savez, les noirs sont intrinsèquement déficients en vitamine D et que nous avons juste, nous avons une faible teneur en vitamine D.
Les personnes à la peau foncée ont une faible teneur en vitamine D. Encore une fois, il y a toute une liste de ces histoires qui ont été internalisées et qui ne reposent sur aucune preuve. Et ce qui est triste, ce n'est pas qu'il n'y ait pas de preuves. Ce qui est triste, c'est que personne ne demande de preuves, n'est-ce pas ? Personne ne les remet en question. Nous allons remettre en question l'enfer de... comment savez-vous que, vous savez, ce médicament fait cette chose ou que c'est le canal qui reçoit ce ligand mais nous ne le ferons pas, il n'est jamais remis en question quand il s'agit de, de la science basée sur la race, la "pseudoscience", qui est, qui est essentiellement basura, est des ordures. Et donc, le monsieur a partagé son, étude et a continué à dire qu'il étudiait la vitamine D dans l'ascendance africaine par le biais du dossier médical électronique. Donc, c'est comme si, et puis l'ascendance européenne, donc ce genre de va-et-vient sur l'ascendance, mais votre base de données, votre sorte de, vous étudiez à partir du dossier médical électronique, comment savez-vous ce qu'est l'ascendance ?
Et donc, c'est une des raisons, encore une fois, une de ces diapositives clés était la race n'est pas l'ascendance. La race est une construction sociopolitique créée par le suprémacisme blanc et le racisme afin de perpétuer le pouvoir économique et politique parmi ceux qui se sont racialisés en tant que blancs.L'ascendance, oui, il y a une véritable ascendance génétique qui est plus liée à la géographie, mais en Amérique, à cause de la traite transatlantique des esclaves, vous, comment, comment pouvez-vous déterminer l'ascendance de quelqu'un à partir de la couleur de la peau quand 16% des Afro-américains ont des allèles européens à cause du viol systématique et systémique. Et le nombre de Noirs qui se sont fait passer pour des Blancs, parce qu'ils le pouvaient, même si leur mère ou leur grand-mère, était, à l'époque un Noir. Donc, la façon dont tout cela est confondu et puis, emballé joliment dans une étude et appelé la science aujourd'hui, non ? Et donc, je réfléchis à LLana sur ce dont vous parlez du passé et comment la technologie dans toutes ses formes variées,revient dans le passé, arrive dans le présent, se désagrège et se réassemble pour faire une prédiction du futur.
Je pense à des études comme celle-ci. Et encore, cette réflexion à avoir sur, OK, qui, bénéficie de, la répétition et de la réitération de cette histoire que d'une certaine manière les gens, nous citons entre guillemets, "l'ascendance africaine" aux États-Unis. Je veux dire, vous ne pouvez pas... Cette phrase n'a pas de sens. On ne sait pas si c'est la personne ou si c'est quelqu'un d'autre qui vérifie la catégorie du recensement américain "noir/américain d'origine africaine", mais qu'est-ce que ça veut dire, hein ? Et donc, quand nous avons ces études qui informent ensuite les technologies parce que ces résultats vont être rapportés et ils vont aller dans et être collectés par ceux qui les utilisent pour créer des "solutions" qui sont vendues pour le profit. Et comment cela, ces récits sont réitérés et mis en avant. Donc, je suis juste assise avec cette réflexion. Et je sais que nous sommes à l'heure et reconnaissants de l'opportunité d'avoir cette conversation très vitale et heureuse d'être confortés dans le fait que cela doit être permanent dans les différentes pièces que nous, que nous occupons parce que les choses doivent changer fondamentalement.
Et je termine cette note, parce que la dernière chose que vous avez dite, LLana, lorsque nous demandons des données basées sur la race, que demandons-nous ? Et je pense que l'autre façon de recadrer cette demande est de dire, eh bien, nous devons le mesurer, comment le faire ? Comment mesurons-nous ? Je pense, vous savez, et c'est ce qui est financé, et c'est ce dont vous êtes invités à parler pour mesurer les impacts. Ça sonne bien, mais qu'est-ce qu'on dit vraiment ? Et donc, ce sont quelques éléments que j'ai appréciés de ce que vous avez offert.
JACKIE GIRGIS : Merci beaucoup. Cette conversation a été vraiment incroyable à suivre. J'apprécie vraiment que vous partagiez toutes vos connaissances et votre expertise. Et je suis sûre que je parle au nom de tous en disant que c'était vraiment, vraiment excitant d'entendre toutes vos connaissances sur ce sujet. J'ai encore 5 millions d'autres questions, mais il est 8h00. Donc, (RIRES), je pense que nous devons conclure, mais je pense que nous avons une diapositive pour la prochaine série. Donc, ici, c'est le 15 décembre encore à la même heure. Vous pouvez voir sur l'écran ici les trois présentateurs dont nous allons parler, oh, désolé, quatre présentateurs dont nous allons parler. Et c'est la quatrième session sur les cinq. Le sujet est les géographies transnationales, la violence genrée, et le mouvement des femmes noires et des personnes non-binaires. Je ne sais pas, Dr Abdillahi, si vous vouliez dire autre chose à ce sujet ou si quelqu'un voulait faire d'autres déclarations finales. Je ne suis pas sûr qu'elle soit encore ici, là -haut.
IDIL ABDILLAHI : Oui, je pense juste à deux ou trois choses. Oui, je suis toujours là . Vous pouvez m'entendre ?
JACKIE GIRGIS : Oui. Oui. C'était juste pour sortir (CROSSTALK)
IDIL ABDILLAHI : Je suis toujours là . Vous pouvez m'entendre ? OK. C'est mieux maintenant ? Vous pouvez m'entendre mieux ?
JACKIE GIRGIS : C'est un, c'est un peu bancal pour moi, mais je peux vous entendre. Je ne sais pas pour tous les autres. Mais ça pourrait être moi.
DR IJEOMA NNODIM OPARA : Oui, nous vous entendons. C'est un peu bancal, mais nous vous entendons.
JACKIE GIRGIS : OK.
IDIL ABDILLAHI : OK. Je vais aller de l'avant et essayer maintenant du mieux que je peux. Avec un peu de chance, vous pouvez m'entendre. Donc, tout d'abord, je voudrais commencer par remercier tout le monde ici. Allez-y et coupez le son si vous ne parlez pas. Allons-y et coupez le son, famille, si vous ne parlez pas. Merci beaucoup. J'aimerais donc prendre un moment ce soir pour remercier le Dr Ijeoma Opara, LLana James, Jackie Girgis, je vais me tromper dans votre nom. J'aimerais également prendre un moment pour remercier l'équipe d'accès Luke ainsi qu'Angie, qui est notre sous-titreuse. J'aimerais également remercier l'équipe de recherche, Apollo, Amber, Maddy et Tali Cherniawsky, qui est également notre coordinatrice du Disability Publics Lab à l'École des Études sur le Handicap de TMU. N'hésitez pas à consulter notre site Web à l'école. Nous aimerions avoir de vos nouvelles. Et nous avons des choses étonnantes qui se passent. Pour la suite, il s'agit de la troisième de cinq sessions. Nous vous invitons donc à la quatrième session, qui aura lieu le 15 décembre de 18 à 20 heures, même heure, même chaîne.
Nous avons un certain nombre d'orateurs passionnants comme vous pouvez le voir sur l'écran ici. Je suis très impatiente de participer à cette conversation transatlantique. Et donc, nous vous invitons à revenir à ce moment-là . Et aussi, s'il vous plaît, allez-y et engagez en ligne, sur Twitter et sur Instagram, partagez vos pensées, partagez vos commentaires et vos apprentissages. SVP taggez nous à @blackoculars. Nous espérons vous voir tous bientôt. Encore une fois, nous nous excusons pour tous les problèmes liés à l'ASL aujourd'hui. Nous continuons à y travailler. Et si vous êtes présent et avez besoin d'un soutien spécialisé ou spécifique pour accéder à la discussion d'aujourd'hui, n'hésitez pas à me contacter, Idil Abdillahi, sur le site web de TMU et/ou n'hésitez pas à contacter Tali Cherniawsky également. Nous nous ferons un plaisir de veiller à ce que le processus soit le plus accessible possible. Donc, encore une fois, merci à tous d'être ici. Merci d'avoir pris le temps d'être avec nous en ce jeudi. Et nous vous invitons à revenir le 15 décembre. Portez-vous bien. C'est un accord et j'ai fini de parler.